عضویت در پرتال

عضویت در پرتال پشتیبانی

پرتال پشتیبانی

ورود به پرتال پشتیبانی

پنج شنبه, 20 آبان 1395 کارهاي اجرایی براي سئو نمودن جوملا  2.5فارسی

کارهاي اجرایی براي سئو نمودن جوملا 2.5فارسی

کارهاي اجرایی براي سئو نمودن جوملا 2.5فارسی
الف ( تصحیح آدرس لینک ها
همانطور که در مطالب بالا ذکر شد لینک هاي سایت شما میباید براي موتورهاي جستجو بهینه باشد به همین منظور
وارد هاست خود شوید .
معمولا در هاست 2فایل کلیدي وجود دارد .htaccessو htaccess.txtتوجه داشته باشید زمانی که وارد
فایل منیجر میشوید میباید show hidden fileرا تیک بزنید تا بتوانید فایل .htaccessرا مشاهده نمایید چرا
که این فایل به دلیل آنکه در ابتداي آن یک "." )نقطه( وجود دارد جزو فایل هاي مخفی جوملا محسوب میشود .
ابتدا این فایل را از روي هاست خود پاك نمایید و سپس فایل htaccess.txtرا تغییر نام ) (renameدهید به
.htaccessیعنی .txtرا از آخر آن برداشته در ابتداي آن یک نقطه اضافه نمایید .
حال به مدیریت جوملا خود رفته و از تب وب سایت « تنظیمات کلی را انتخاب نمایید و در اولین تب که وب سایت
نام دارد در سمت چپ گزینه هاي فوق را بر روي بلی قرار دهید.
گزینه یونیکد زبان دوم
این گزینه این امکان را به شما میدهد تا آدرس هاي سایت خود را به فارسی برگردانید . در این که این کار درست
است و یا خیر بین طراحان وب سایت ها اختلاف نظر وجود دارد . برخی بر این باورند که این کار در جستجو ها و
یافتن لینک ها توسط گوگل تاثیر دارد و برخی دیگر بر این باورند که این کار صحیح نمیباشد . عقیده شخصی من
این است که این کار صحیح نمیباشد . چرا که 2مشکل عمده ایجاد میکند :
مشکل اول آن است که تنها موتور جستجو در دنیا گوگل نمیباشد، بسیاري از موتور هاي جستجو دیگر وجود دارند که
با ثبت نمودن لینک هاي فارسی مشکل دارند.
مشکل دوم این است که بسیاري از سایت ها هستند که سایت شما را پویش مینمایند و لینک ها شما را ثبت میکنند
بدین ترتیب یک لینک خارجی براي شما ایجاد میشود که در رتبه سایت شما موثر است اما برخی از این سایت هاي
پویشگر نیز با لینک هاي فارسی دچار مشکل هستند.
حال پس از تصحیح لینک هاي سایت میپردازیم به سایر عملیات
ب ( قفل کردن آدرس سایت بر رويwww
سایت شما داراي هر چند دامنه که باشد باز هم باید تنها باید یک دامنه در مرور گر نمایش داده شود لذا این کار را
ًما
حت انجام دهید . آموزش قفل نمودن دامنه در همین بخش قبلا ذکر شده است.
ج ( تصحیح صفحات خطا 404
در هنگامی که شما از جوملا و یا هر سیستم مدیریت محتواي دیگري براي راه اندازي و انتشار سـایت خـود اسـتفاده
می کنید ممکن است بعد از مدتی به دلیل تغییرات در آدرس صفحات سایت خود ، پـاك کـردن بعضـی از مطالـب ،
تغییر ساختار صفخات سایت خود و … بعضی از صفحات شما حذف و یا دستخوش تغییر آدرس اینترنتی شوند. حـال
این تغییرات را نه موتورها ي جستجوگر که قبلاً صفحات سایت شما را ثبت ) ( Indexکـرده انـد مـی داننـد و نـه
کاربران و بازدید کنندگان شما پس ممکن است دوباره به آن آدرس هاي قدیمی از سایت شما سر بزنند و این باعـث
می شود که با صفحه اي با عنوان خطاي 404روبرو شوند و به آن ها گفته شود به دنبال چیـزي کـه هسـتند وجـود
ندارد و این همانطور که می دانید با عث کاهش رتبه سایت شما در موتورهاي جستجوگر و همچنین ناراحتی کاربران
شما می شود.
امــا در جــوملا نســخه 2.5بــراي جلــوگیري از ایــن اتفــاق یــک افزونــه ) کامپوننــت( پــیش فــرض درمنــوي
کامپوننت) (Componentsدر قسمت مدیریتی جوملا با نام ارجاعات ) ( Redirectاضافه شـده اسـت کـه بـا آن
می توانید به راحتی صفحاتی که در سایت شما تغییر آدرس پیدا کرده اند و یا به طور کل حذف شده اند را بـه آدرس
جدیدي تغییر مسیر دهید به اینگونه که در هنگامی که بازدید کنندگان و یا روبات هاي موتورهاي جستجوگر به ایـن
صفحات سر زدند به طور اتوماتیک به صفحه اي که شما انتخاب کرده اید انتقال داده شوند.
در بخش کامپوننت هاي این کتاب در مورد نحوه کار با این افزونه مفصل بحث شده است لذا شما را به مطالعـه ایـن
بخش ارجاع میدهیم .
د( درج کلمات کلیدي و توضیحات
تقریبا تمامی مطالب، منو ها ، ماژول ها و ... در جوملا میتواند داراي کلمات کلیدي و توضیحات باشند کـه در رابطـه
اهمیت ورود این اطلاعات قبلاً بحث شده است لذا پیشنهاد میکنم دوباره این قسمت ها را مرور نمایید تا چیزي از قلم
نیفتد.
ه( تصاویر
مطابق با آموزشی که در همین بخش داده شده است تصاویر خود را براي موتور هاي جستجو بهینه نمایید.

پنج شنبه, 20 آبان 1395 سئو در جوملا(بخش چهارم)

سئو در جوملا(بخش چهارم)

آیا ساب دامین براي سئو سایت خوب است یا بداست؟
در پاسخ باید خدمت شما عرض کنم که ساب دامین ها می توانند به سئو سایت کمک نمایند به شرطی که به درستی
از آن ها استفاده شود. استفاده درست از ساب دامین ها بدین منظور است که سایت شما با انتظارات کاربران مطابقت
داشته باشد و به همان گونه اي باشد که به موتورهاي جستجو معرفـی شـده انـد. در واقـع سـاب دامـین هـا ارتبـاط
مستقیمی با آدرس اصلی سایت شما دارند و با جایگاه سایت شما در موتورهاي جست جو ارتباط مستقیمی دارند. یعنی
هم می توانند موجب ارتقا رتبه سایت شما شوند و هم می توانند موجب جریمه شدن سایت شما گردند.
رابطه دامین و هاستینگ )لینوکس یا ویندوز( با سئو سایت :
طول عمر دامین تاثیر بسزایی دارد. در این زمینه علت هاي متفاوتی وجود دارد ولی چیزي که مشخص است که
دامین هاي با طول عمر زیاد این تعهد و اعتبار و اطمینان را به موتورهاي جستجو می دهد که مورد بررسی دائمی و
دقیق قرار بگیرند و همچنین یکی دیگر از دلایل تاثیرگذاري طول عمر دامین بر سایت شما، سو استفاده هایی است
که توسط هکرها صورت می گیرد. معمولا هکرها از دامین هایی براي مقاصد خود استفاده می نمایند که داراي طول
عمر کمتر از یکسال می باشند. سعی کنید هنگام انتخاب دامین ، دامینی کوتاه انتخاب نمایید و از انتخاب دامین
طولانی به غیر از در حالت ضروري و خاص بپرهیزید. چون دامین کوتاه و ساده در ذهن کاربر خواهد ماند ولی دامین
طولانی بدین صورت نیست.
ما دونوع هاست اصلی و شناخته شده داریم، Linuxو . Microsoft Windowsکه شما با توجه به هزینه اي که
خواهید نمود و همچنین تکنولوژي هایی که در طراحی سایت خود به کار می برید می توانید یکی از آن ها را انتخاب
نمایید. معمولا سرورهاي لینوکس نسبت به سرورهاي ویندوز ارزانتر خدمات می دهند در ضمن خدماتی هم که ارائه
می دهند داراي امکاناتی زیادي از لحاظ اکانت زیردامنه - ایمیل - اکانت FTPو ... هستند. سرورهاي لینوکس بنا به
ویژگی هاي سیستم عامل حاکم بر آنان داراي ثبات و امنیت بیشتري نسبت به سرورهاي ویندوز هستند و کمتر در
معرض تهدید قرارمی گیرند. چون اکثر سرورها از سخت افزارهایی در یک سطح استفاده می کنند سرعت آنها چندان
با یکدیگر تفاوتی ندارند ولی برخی از کاربران خدمات میزبانی معتقدند که سرورهاي لینوکس سریعتر از سرورهاي
ویندوز به بازدید کنندگان سرویس ارائه می دهند. سرورهاي ویندوز بیشتر ازسرورهاي لینوکس از نرم افزارهاي
برنامه نویسی و ایجاد بانک هاي اطلاعاتی پشتیبانی می کنند، ولی این پشتیبانی مخصوصا در مورد PHPبه دلیل
ناقص بودن و امنیت پایین، کاربرد محدود دارد. به گونه اي که توصیه میشود از هاستینگ ویندوز براي سایت هاي
طراحی شده با php/mysqlنباید استفاده نمود.
و اما نکته که شما باید به آن خیلی توجه کنید این است که پلتفرم ویندوز و لینوکس در زمینه سئو یک تفاوت خیلی
مهم دارند و آن هم این است که نام فایل هاي ویندوز حساس به بزرگی و کوچکی حروف نیستند و این در حالی است
که نام فایل هاي لینوکس نسبت به بزرگی و کوچکی حروف حساس هستند. اجازه بدید یک مثال براي شما بزنم :
شما در یک سیستم ویندوز نمی توانید دو فایل a.htmlو A.htmlرا در یک دایرکتوري یا فلدر قرار داده و داشته
باشید. این در حالی است که شما می توانید در سیستم لینوکس فایل هاي a.html, A.html, a.Htmlو
a.HTMLدر یک فلدر قرار دهید و هر کدام از این فایل ها یک فایل جداگانه محسوب شود.
البته اختلاف زیادي براي انتخاب هاست بهتر براي سئو وجود دارد ولی مسئله اي که اکثراً با آن موافق هستند و به
ویژه در سایت هاي جوملایی باید به کار گرفته شود هاست لینوکس می باشد.
سئو در جوملا 2.5
SEO-friendly Urls
همانطور که در آدرس زیر ملاحظه می کنید، علاوه بر یک آدرس طولانی، با آدرسی روبه رو هستید که از علامت
هایی مانند = & ? در آن استفاده شده است به چنین آدرس هایی، آدرس داینامیک گفته می شود، که به ویژه در
طراحی cmsهاي اختصاصی در داخل کشور خیلی زیاد با آن رو به رو هستیم.
http://www.yourdomain/index.php?option=com_content&view=article&id=٨:b
eginners&catid=١٩&Itemid=٢٦٠
این آدرس هاي داینامیک مشکلات زیادي براي سئو سایت ایجاد می نماید. موتورهاي جستجو شناخته شده اصلا
مایل نیستند با چنین آدرس هایی روبه رو گردند. اما این تنها مشکلی نیست که اینگونه آدرس ها به وجود می آورند:
کارکترهاي گیچ کننده: در واقع کارکترهایی به جز حروف الفبایی باعث به اشتباه انداختن موتورهاي جستجو
می شوند.
ایجاد توقف کوتاه: گاهی اوقات ممکن است که یک موتورجستجو تنها بخشی از آدرس را بخوانند. این امر
موجب می شود که چندین صفحه با آدرس مشابه ایجاد شود که خود این موضوع عواقب خیلی بدتري براي سئو
سایت دارد.
اتلاف تلاش هاي صورت گرفته براي سئو سایت: شاید مهم ترین موضوع در این زمینه تلاشی است که
شما براي سئو سایت در یک مدت زمان طولانی انجام می دهید. این در حالی است که آدرس هـاي صـفحات نقـش
مهمی در برنامه ریزي سئو شما دارند. به گونه اي که استاندارد بودن آن ها می توانند شـما را در سـئو سـایتتان جلـو
بیندازد.
آدرس زیر یک آدرس استاندارد می باشد:
http://www.yourdomain/products/your-product-name
جوملا این امکان را به شما می دهد که با ایجاد تغییراتی در قسمت تنظیمات سراسري خود ، ویرایش هایی بـر روي
فایل htaccess.txtو همچنین نصب افزونه هایی در این زمینه )براي افرادي که حرفه اي نیستند( بر این مشکل تا
حد زیادي غلبه نمایید . براي cmsهاي اختصاصی نیز راه هایی وجود دارد که پیچیده می باشد و نیاز بـه تخصـص
هاي برنامه نویسی دارد. به عنوان مثال یکی از روش ها استفاده از متد MVCبراي SEFنمودن آدرس ها می باشد.
همچنین می توانید براي
.htaccess redirect
نیز از ابزارهایی که بر روي وب می باشند استفاده نمایید. براي این کار کافیسـت واژه URL Rewriting Toolدر
اینترنت جستجو نمایید و مشکل آدرس هاي داینامیک را به نحوي دیگر حل نمایید. در آینده مقاله اي مفصـل تـر در
این زمینه و همچنین HTML٥و تاثیر آن در سئو منتشر خواهیم نمود.
از دیگــر ویژگــی هــاي جــوملا 2.5مــی تــوان بــه Meta Descriptionsبــراي تمــام صــفحات، بــه کــارگیري
Image Titlesساده تر، Redirectکردن هاي استانداردتر و ساده تر،و همچنین RSSبـراي سـئو بهتـر سـایت
اشاره نمود که نسبت به نسخه هاي قبلی جوملا ارتقا یافته است.
subfolder یاsubdomain انتخاب
اگر چه این موضوع کمی تخصصی می باشد ولی اگـر بخـواهم بـراي شـماخیلی سـاده توضـیح دهـم چـه موقـع از
subfolderو یا چه موقع از subdomainاستفاده نمایید، باید بگویم که اگر محتویاتی را کـه شـما مـی خواهیـد
استفاده نمایید به محتویات دامین اصلی شما نزدیک باشد )مانند بخش وبلاگ( بهتر است که از subfolderاستفاده
نمایید در غیر این صورت از subdomainاستفاده کنید. به عنوان مثال براي به کارگیري انجمـن سـایت معمـولا
بایست از subdomainاستفاده نمود. البته این نکته هم مورد توجه قرار دهید که در تعداد subdomainها نیـز
محدودیت وجود دارد.

پنج شنبه, 20 آبان 1395 سئو در جوملا (بخش سوم)

سئو در جوملا (بخش سوم)

ثبت نقشه سایت
شما علاوه بر قرار دادن نقشه سایت خود در فایل robots.txtمی توانید آن ها را در موتورهاي جست جو مانند
گوگل ثبت نمایید. البته با ثبت نقشه سایت خود این انتظار را نداشته باشید که تمام صفحات شما crawlمی شود. اما
همانطور که قبلا عرض کردم باز سفارش می کنم که حتماً نقشه سایت خود را ایجاد کرده و ثبت نمایید چون با این
کار می توانید Crawlerها را براي بررسی صفحات خود راهنمایی نمایید.
SEO Spamو طراحان صفحات وب
تا حالا براي شما هم پیش آمده است که در حین جستجو در گوگل به سایت هاي برخورد کنید که بعد از وارد شدن
به این سایت ها، فاقد محتویات مورد نظر هستند. در واقع این جور سایت ها با فریب دادن موتورهاي جستجو در
صفحات اول موتورهاي جستجو یافت می شوند که به جز ضرر به کاربر هیچ سودي دیگري ندارند. هدف این جور
سایت ها ، افزایش ترافیک سایت، افزایش رتبه السکا، افزایش پیچ رنک، خراب کردن دنیاي مجازي می باشد که
تعداد این گونه سایت ها در کشور ما متاسفانه سر به فلک می کشد.
بسیاري از فعالیت هایی که براي بهینه سازي سایتها و پایگاههاي الکترونیک مورد استفاده قرار می گیرد، مورد علاقه
و تایید موتورهاي جستجو است زیرا ماهیت این فعالیت ها، بهبود وضع سایت ها براي استفاده و ورود رباتهاي موتور
جستجو است. اما رده خاصی از بهینه سازي نیز باعنوان بهینه سازي Black Hatیا روشهاي تقلب وجود دارد که با
واکنش شدید موتورهاي جستجو مواجه می شود. این فعالیت ها می تواند تنوع و انواع زیادي داشته باشه با استفاده از
مولفه هاي مورد توجه موتورهاي جستجو تاثیري را بر نحوه رتبه بندي نهایی داشته باشد اما به هیچ عنوان استفاده و
نفعی براي کاربر نهایی نداشته و در صورت آگاهی سیستم هاي جستجو به شدت با آنها مقابله شده و حتی ممکن
است به حذف سایت از بانک داده ها منجر شود و ورود مجدد سایت نیز به مجموعه غدقن گردد. نکته مهم در
روشهاي تقلب این است که حتی ممکن است در یک بازه زمانی موفقیتی در کسب رتبه هاي بالا بدست آید اما کوتاه
و بسیار گذرا خواهد بود.
حال از کجا ما بفهمیم عملیاتی که ما در پروسه سئو خود انجام می دهیم درست می باشد یا اشتباه است؟
من پس از مطالعه و تست کـردن تـا بـه حـال حـدود 34مـورد کـه نویسـندگان وطراحـان صـفحات وب درزمینـه
SEO Spamبه کار می برند را بررسی نموده ام. باید خدمت شما عرض کنم که شخصاً قـادر بـر ایـن نیسـتم کـه
همه ي موارد را خدمت شما عرض کنم به دلایل مختلف که شاید مهمترین آن این باشد که بعضی از این موارد بـه
صورت نجومی رتبه شما را ارتقاع می دهند و حتی بعضی از آن ها توسط موتورهاي جسـتجو هنـوز قابـل تشـخیص
نمی باشند ولی به هر حال در دسته ي اسپم ها قرار می گیرند. من در زیر تعدادي از این موارد را کـه شـناخته شـده
هستند و متاسفانه به صورت رایج در صفحات وب مشاهده می کنیم خدمت شما عرض می نمـایم. قبـل از آن اجـازه
بدهید تجربه و دانش خودم را در این زمینه در اختیار شما قرار داده و یک سري نکات را به شما عرض نمایم:
اقداماتی را که شما قبلاً تجربه آن را نداشتید و مطمئن نیستید، این اقدام درست یا نادرست را انجام ندهید:
تمام اقداماتی را که این نگرانی را براي شما ایجاد می کند که احتمال دارد سایت شما توسط موتورهاي جستجو
جریمه شود را به هیچ وجه انجام ندهید. این اقدامات می تواند شامل استفاده از متن هاي مخفی و ... باشد.
در معرفی وب سایت خود نباید به گونه اي عمل کنید که :
در عمل سایت شما آن گونه نباشد. به سادگی می توان کاري انجام داد که چیزي که بی ارزش است جذاب نمایش
داده شود. خیلی از مدیران و فروشندگان ناموفق خیلی اوقات اینگونه عمل می نمایند اما بیاد داشته باشیدبا استفاده از
این استراتژي نادرست ، موجب نابودي تجارت و همچنین عقب ماندن از رقباي حرفه اي خود می شوید. اتخاذ ساختار
نا مناسبی براي لینک هاي سایت خود و اغراق گویی و دروغ گفتن درباره ي محصولات و خدمات خود در این زمینه
از این دسته موارد می باشد، که این عمل علاوه بر اینکه موجب ازدست دادن مشتریان و کاربران شما می شود،
موجب بی اعتمادي موتورهاي جستجو به سایت شما نیز می شود.
عدم اعتماد به افرادي که به اصطلاح خود را متخصص سئو معرفی کرده و شما را تشویق به استفاده از آیتم هاي
غیر مجاز می کنند:
خیلی افراد معتقدند که اگر SEO Spamاز لحاظ فنی نادرست باشد شما می توانید از آن در راه درست و صحیح
استفاده نمایید، ولی باید در جواب چنین افرادي اصطلاح معروفی که ما در کارمان داریم را یاد آور شوم که
. Spam is spamچیزي که بد و نادرست است از آن نمی توان در یک کار تخصصی و اخلاقی استفاده نمود.
حتی اگر شما این کار را انجام داده و در مقطعی هم موفق باشید مطمئن باشید از دست موتورهاي جست جو در امان
نخواهید بود.
SEO spamبه نام spamdexingنیز نامیده می شود چون شما به گونه اي از ،SEO spamدر ایندکس شدن
صفحات خود در موتورهاي جستجو استفاده می نمایید. عمل SEO spamدر شکل هاي متفاوتی صورت
میگیرد. بعضی از این تکنیک ها آشکار و قابل تشخیص و بعضی از آن ها مخفی و غیر قابل تشخیص می باشند.
نکته اي که من باید خدمت شما عرض کنم این است که تمام موارد قبلاً تست شده و در خیلی از آیتم ها نیز جواب
گرفته شده است ولی به این مطلب توجه داشته باشید که ممکن است با استفاده از SEO spamیک نتیجه خوب
اولیه بگیرید ولی چیزي که مسلم است با هوشمندتر شدن و همچنین تغییر الگوریتم موتورهاي جستجو روز به روز
میدان براي ارز اندام SEO spamها تنگ تر شده و ممکن است پس از چند ماه تا چند سال سایتی را که خیلی
براي آن زحمت کشیده اید را از دست رفته ببینید و توسط موتورهاي جستجو جریمه شوید.
Transparent links
به آن دسته از لینک ها گفته می شود که در صفحات شما قرار دارد ولی کاربران نمی توانند آن ها را ببینند چون با
پس زمینه صفحات شما داراي رنگ یکسانی می باشند.
Hidden links
این دسته از لینک ها نیز در صفحات شما قرار دارد اما در میان عناصر سایت شما از جمله تصاویر صفحات مخفی
شده اند. این لینکها تصاویر را به یک hyperlinkتبدیل نمی کنند ولی موتورهاي جستجو آن ها را پیدا کرده و
دنبال می نمایند حتی اگر براي کاربران قابل تشخیص نباشد.
Misleading links
لینک هاي فریب دهنده آن دسته از لینک ها می باشند که به ظاهر شما را به بخشی راهنمایی می نمایند که آن
بخش با لینک داده شده به هیچ وجه ارتباطی ندارد.
Keyword stuffing
این مورد شامل به کارگیري کلمات کلیدي به صورت مکرر و پشت سر هم به صورت عمدي در متن ها و متا تگ ها
می باشد.
Meta tag stuffing
این مورد هم مثل مورد بالا می باشد یعنی به کارگیري مکرر و پشت سر هم کلمات کلیدي در متا تگ ها می باشد.
Scraper sites
این گونه وب سایت ها از آن دسته از سایت هایی می باشند که صفحات خود را با کپی برداري از دیگر صفحات
موجود در وب پر می کنند . موتورهاي جست جو به شدت از این گونه سایت ها متنفر می باشند زیرا از دید آن ها
اینگونه سایت ها ، سایت هاي اصل و داراي اعتبار نمی باشند . بعضی از این گونه سایت ها اغلب با استفاده از
Phishingیا سایر جرایم اینترنتی به دنبال سرقت اطلاعات شخصی مانند اطلاعات کارت هاي اعتباري و بانکی
ن می باشد.
کاربرا
Links in punctuation
همان طور که گفته می شود هکر ها انسان هاي باهوشی هستند ، من باید خدمت شما عرض نمایم که افرادي هم
که Seo spamرا به کار می برند افراد خیلی باهوشی هستند چون در بازي اي ، مثل یک بازي شطرنج با
موتورهاي جستجو رقابت می کنند و چرا این امر نیازمند هوش بالاست ، به این دلیل که موتورهاي جستجو شناخته
شده داراي قاعده، اصول و رفتار ثابت و مشخصی نیستند. Links in punctuationیک عمل هوشمندانه است.به
قطعه کد زیر توجه کنید:
<a href=link> </a>Include real words here</a>
<a href=link>.</a>
اگر یک طراح سایت باشید با یک نگاه متوجه می شوید که منظور از کد دوم چیست. بله در کد دوم با کلیک بر روي
یک نقطه وارد لینک مورد نظر می شوید. حال نکته این کد کجاست؟ با توجه به اینکه ما به یک نقطه لینک داده ایم
کاربر توجه اي به این نقطه ندارد که بخواهد بر روي آن نقطه کلیک نماید ولی همین نقطه توسط موتورهاي جستجو
قابل تشخیص می باشد.
Hidden text
این گونه متن ها داراي رنگ یکسانی با رنگ پس زمینه هستند که براي کاربران قابل دیدن و تشخیص نمی باشند.
ولی براي موتورهاي جستجو قابل تشخیص هستند و همچنین معمولاً این گونه متن ها ربطی با آن سایت پیدا
نمی کنند و صرفاً جهت فریب موتورهاي جستجو مورد استفاده قرار می گیرند.
Duplicate content
مطالب تکراري در وب سایت ، این اقدام فریبکارانه بدین منظور انجام می شوند که به موتورهاي جستجو القا گردد که
سایت مورد نظر با کلمات کلیدي خود داراي ارتباط زیادي می باشد و سایت خود را به صورت غیر از چیزي که در
حال حاضر می باشد نشان دهد. باید خدمت شما عرض کنم که با توجه به اینکه موتورهاي جستجو نسبت به این
موضوع خیلی حساس می باشند ، افرادي که این کار را انجام می دهند سند نابودي سایت خود را امضا نموده اند.
Link-only pages
به صفحاتی گفته می شود که صرفاً شامل لینک تنها می باشند که باید از این گونه صفحات خودداري کنیم. ولی یک
استثنا هم در این زمینه وجود دارد و آن هم نقشه سایت می باشد که براي اینکه کاربران بتوانند به سرعت و راحت به
مطالب سایت دسترسی پیدا کنند مورد استفاده قرار می گیرید.
Page hijacking
به عملی گفته می شود که با کپی کردن صفحات وبی که مشهور وپربازدیدند و در اینترنت وجود دارند همراه
می باشد و براي نمایش دادن سایت خود در موتورهاي جستجو مورد استفاده قرار می گیرد . وقتی کاربر لینک شما را
در نتایج موتورهاي جستجو مشاهده می کند با توجه به اینکه متن و موضوع جذاب و پربازدید می باشد بر روي لینک
کلیک کرده و وارد سایت شما می شود ، در حالی که ماهیت سایت شما با مطلب مشهور قرار داده شده در سایت شما
تناسب ندارد. در این زمینه باید عرض کنم که اکثر فروشگاه هاي الکترونیکی) که فروشگاه الکترونیکی نمی باشند( در
ایران بدین شکل هستند،بدین صورت که در کنار فروش محصولات خود از مطالبی که مثلا در میان قشر جوان
پرطرفدار است استفاده می نمایند و بدینگونه دست به جذب کاربر و ارتقاي سایت خود در نتایج موتورهاي جستجو
می زنند.

پنج شنبه, 20 آبان 1395 سئو در جوملا(بخش دوم)

سئو در جوملا(بخش دوم)

قفل کردن آدرس سایت بر رويwww
قبلا در برخی از انجمن ها مطلبی را در این زمینه مطالعه کردم که جا دارد از تهیه کنندگان آن تشکر کنم. من در این
قسمت سعی می کنم آن مطلب را کامل نمایم. بعضی ها فکر می کنند که داشتن و نداشتن wwwموجب ایجاد دو
آدرس براي موتورهاي جستجو می شود این در حالی است که اگر یک سایت جوملایی داشته باشید و از پروتکل
httpsنیز صرف نظر کنیم حداقل داراي 4آدرس به شرح زیر است:
http://yoursite.com
http://yoursite.com/index.php
http://www.yoursite.com
http://www.yoursite.com/index.php
شکل معمول و استانداردي که توصیه می شود از آن براي معرفی آدرس صفحه اصلی سایت خود استفاده نماییم به
صورت:
http://www.yoursite.com
می باشد. اهمیت این موضوع در این است که اگر صفحه ي اول شما چهار آدرس متفاوت داشته باشد خیلی از
پارامترهاي مهم مثل میزان بازدید سایت شما و همچنین لینک هایی که به سایت شما داده می شود روي این چهار
آدرس تقسیم می شود که اصلا براي سئو شما مناسب نیست. و براي این منظور بایستی قطعه کد زیر را به
فایل .htaccessخود اضافه نمایید:
RewriteEngine On
# index.php redirect
RewriteCond %{THE_REQUEST} ^[A-Z]{٣,٩}\ /index\.php\ HTTP/
RewriteRule ^index\.php$ http://www.yoursite.com/ [R=٣٠١,L]
# Redirect non-www to www version
RewriteCond %{HTTP_HOST} ^yoursite\.com$ [NC]
RewriteRule ^(.*)$ http://www.yoursite.com/$١ [R=٣٠١,L]
بت
ال ه این موضوع به این سادگی هم که به نظر می رسد نیست. اگر شما سایت جوملایی داشته باشید از طریق آدرس
زیر نیز می توانید به صفحه اصلی خود دسترسی داشته باشید:
www.yoursite.com/component/content/frontpage
اگر با این آدرس به سایت خودتان وارد شوید به فاجعه بودن آن براي کاربران پی خواهید برد.جالبه بدانید که این
آدرس جز اولین آدرس هایی است که از سایت شما در موتورهاي جستجو ایندکس می شود. براي حل این مشکل و
مشکلات شبیه به این موضوع می توانید از دستور زیر استفاده نمایید:
Redirect ٣٠١ / component/content/frontpage http://www.yoursite.com
با توجه به اینکه نیازي به توضیح دستور بالا ندارید از توضیح آن صرف نظر می کنم.
فعال کردنcache
سایت هایی با حجم کم و سرعت بالا هم براي کاربران و هم براي موتورهاي جستجویی مانند گوگل فوق العاده حائز
اهمیت می باشد و این امکان را هم به کاربران و هم به موتورهاي جست جو می دهد که بهتر و مفیدتر با سایت شما
ارتباط بر قرار نمایند. براي این منظور می توانید در قسمت تنظیمات عمومی سایت خود cacheرا فعال نمود ولی
قابل خواندن و نوشتن بودن فایل cacheخود را نیز به یاد داشته باشید.
Spiderها و robotها و crawlerها و سایت هاي جوملایی
شاید شما قبلا اطلاعاتی در زمینه Spiderھا و robotها و crawlerها داشته باشید و بدانید که آن ها به
گونه اي برنامه نویسی می شوند که عمل crawlکردن محتویات سایت شما را مثل متن ها و لینک ها را انجام
دهند و آن ها را در دیتابیس موتورهاي جستجو قرار داده و با توجه به الگوریتم موتورهاي جست جو سایت شما را
رتبه بندي نمایند. جالبه بدانید که crawlerها وقتی براي اولین بار وارد سایت شما می شوند به اولین چیزي که
توجه می کنند لینک هاي شما درصفحه هایتان می باشد. سپس متن هاي شما را می خوانند و لینک هایی که قبلاً
بررسی نموده اند دریافت می کنند.
این که دقیقا گفته شود که یک crawlerچگونه اطلاعات یک سایت را مرور می کند کمی دشوار تر از اینه که من
توضیح دادم. Crawlerیک درخواست ارسال می کند به یک سروري که از سایت شما میزبانی می کند و نحوه
یا
در فت این درخواست تقریباً مثل حالتی که مرورگرها صفحاتی را که شما می خواهید ببینید پیگیري می کنند.
Crawlerمی توانند در هر زمانی صفحات سایت شما را مورد بررسی قرار دهند. همین موضوع به ویژه در سایت
هاي پربازدید ایجاد مشکل می کند که مهمترین آن این است که سرعت لود سایت را پایین می آورد و موجب از
دست دادن ترافیک شما در اوج ترافیک سایتتان می شود. و حتی ممکن است در ساعاتی که سایت شما داراي بازدید
زیادي است Crawlerسایت شما را ترك کند. هنگام برنامه نویسی و طراحی یک سایت باید به این نکته توجه
داشت که دیر لود شدن سایت امکان جریمه شدن سایت ما توسط Crawlerها به وجود می آورد . اما براي این
موضوع،، راه حلی هم وجود دارد و آن این است که کاري انجام دهیم که Crawlerرا در سایت خود نگهداریم. من
به طور خلاصه به شما خواهم گفت چه کاري انجام دهید که Crawlerمجدداً به سایت شما راهنمایی شوند ولی اگر
تجربه من را می خواهید در صورتی که لزومی ندارد که سایتی سنگین جهت لود شدن داشته باشید بهتر است این کار
را انجام ندهید و اگر غیر از این باشد راه حل مناسب را انتخاب نمایید. ولی قبل از اینکه وارد این بحث شوم به شما
یک سري از مواردي را خواهم گفت که نباید اجازه دهید توسط Crawlerایندکس شوند و حتی از آنها در طراحی
سایت خود استفاده نمایید:
زمانی که در حال ایجاد یک صفحه هستید:
هنگامی که در حال ایجاد و ویرایش یک صفحه هستید مطمئن شوید که آن صفحه جزو صفحاتی نیست که توسط
Crawlerمورد بررسی می باشد و از این قضیه نیز نگران نباشید زیرا پس از آماده شدن صفحات شما توسط
Crawlerمورد بررسی قرار خواهد گرفت. و یا هنگام تعمیرات سایت باید به موتورهاي جستجو گوگل اعلام نمایید
که در این بازه ي زمانی سایت شما در حال تعمیر می باشد.
صفحات حاوي لینک هاي زیاد:
این گونه از صفحات که حاوي لینک هاي زیادي هستند)به استثنا نقشه سایت( براي Crawlerها مشکوك
محسوب می شوند و حتی لازم است که این نکته را خدمت شما عرض کنم که ما این گونه از سایت ها را در زمره
سایت هاي اسپم قرار می دهیم حتی اگر موتورهاي جستجو این موضوع را تشخیص ندهند. براي حل این مشکل
می توان از توضیحات و متن به جاي بکاربردن لینک هاي زیاد به تنهایی استفاده نماییم.
صفحاتی که داراي محتویات خیلی قدیمی هستند:
ًتا
محتویات قدیمی سایت شما مانند آرشیو وبلاگ شما ضرور آسیبی به رنک شما در موتورهاي جستجو وارد نمی کند
ولی نبود آن ها موجب ارتقاي رنک شما خواهد شد. موضوع آزاردهنده اي که در رابطه با آرشیو ها با آن رو به رو
هستیم تعداد دفعاتی است که این محتویات بر روي سایت شما آشکار و لود می شوند. و همچنین ممکن است این
اشتباه براي Crawlerها پیش آید که شما از محتویات یکسان چندین بار در سایت خود استفاده نموده اید که
این خود مصداق اسپم براي سئو می باشد. پس بهتره که ریسک نکرده و آرشیو خود را محدود کرده و مطمئن شویم
که محتویاتی که گذشته به کار برده اید مجدداً به کار نبرید.
اطلاعات شخصی:
بهتر این است که اطلاعات شخصی را بر روي وب منتشر نکنیم ولی اگر به هر دلیلی مجبور هستید این کار را انجام
دهید امکان دسترسی Crawlerرا به آن ها ببندید. دلایل زیادي وجود دارد که نباید اجازه دهید در بعضی از مواقع
Crawlerها صفحات شما را ایندکس نمایند و مواردي که من عرض نمودم تعدادي از رایج ترین این موارد بود.
robots.txt فایل
Crawlerها این توانایی را دارند که به یک وب سایت آسیب وارد نمایند. ولی با انجام یک سري اقدامات می توان
رفتارآنها را کنترل نمود. این اقدامات به وسیله robots.txtصورت می گیرد. فایل robots.txtیک عنصر واقعی ،
مهم و تاثیر گذار است که شما بر روي آن کنترل دارید. این فایل در rootسایت شما قرار می گیرد. این فایل حاوي
دستور العمل هاي ضروري و مهمی می باشد که وظیفه کنترل Crawlerها را بر عهده دارد و به آن ها می گوید چه
قسمتی از سایت شما را ایندکس کنند و چه قسمت هایی را ایندکس نکنند. براي ایجاد ارتباط با Crawlerها باید از
دستورالعملی خاصی استفاده نمایید که آن ها متوجه شوند. در بیشتر فرم هاي این فایل از دستور زیر استفاده می کنیم:
User-agent: *
Disallow: /
این دو قسمت خیلی ضروري و مهم می باشند. قسمت اول یعنی : User-agentبیانگر فرمان شما به Crawler
ها می باشد. نشان ستاره)*( نشان می دهد که تمام و انواع Crawlerها را پوشش می دهد ولی این قابل کنترل و
تغییر توسط شما می باشد و می توانید تنها به یک یا چند Crawlerاجازه ارتباط دهید.
قسمت دوم یعنی : Disallowبه Crawlerمی گوید که چه قسمت هایی اجازه دسترسی نداردو علامت اسلش )(/
نشان دهنده تمام داریکتوري ها می باشد. پس این قسمت به Crawlerمی گوید از ایندکس کردن داریکتوري ها
چشم پوشی کن.
علامت ):( بیانگر این موضوع است که Crawlerها با دستور مهمی روبه رو هستند و باید به آن توجه کنند. معمولا
از Crawlerها خواسته می شود که از اکثر دایرکتوري ها صرفه نظر کنند. به عنوان مثال اگر بخواهید که به
Crawlerها اعلام نمایید که از دایرکتوري هاي موقتی چشم پوشی نماید به صورت زیر عمل می نماییم:
User-agent: *
Disallow: /tmp/
و شاید شما بخواهید از دایرکتوري هاي بیشتري چشم پوشی شود:
User-agent: *
Disallow: /tmp/
Disallow: /private/
Disallow: /links/listing.html
در دستور بالا از Crawlerها خواسته می شود که از دایرکتوري هاي موقت و شخصی و همچنین صفحاتی که
شامل لینک ها است چشم پوشی نمایند. نکته اي که همیشه باید در ذهن داشته باشید این است که Crawlerها
فایل robots.txtرا از بالا به پایین می خوانند پس اگر شما می خواهید یک سري فرمان بنویسید باید به چگونه
نوشتن آن دقت کنید.
به مثال زیر توجه کنید:
User-agent: *
Disallow: /tmp/
User-agent: CrawlerName
Disallow: /tmp/
Disallow: /links/listing.html
اگر توجه کنید می بینید که در یک فرمان به تمام Crawlerها اجازه دسترسی و ارتباط داده اید و در فرمانی دیگر
ها
تن به یک Crawlerخاص. در این جا آن Crawlerخاص فرمان را نخواهد انجام داد زیرا قبل از آن شما اجازه
ارتباط به تمام Crawlerها را داده اید.
صحیح دستور بالا به صورت زیر می باشد:
User-agent: CrawlerName
Disallow: /tmp/
Disallow: /links/listing.html
User-agent: *
Disallow: /tmp/
User-agent: CrawlerName
Disallow: /tmp/
Disallow: /links/listing.html
User-agent: *
Crawlerهاي موتورهاي جست جو متفاوت داراي نام هاي متفاوتی هستند که اگر شما logوب سرور را بررسی
کنید احتمالاً نام آن ها را مشاهده خواهید نمود. برخی از آن ها در لیست زیر آورده شده است:
Google: Googlebot
MSN: MSNbot
Yahoo! Web Search: Yahoo SLURP or just SLURP
Ask: Teoma
AltaVista: Scooter
LookSmart: MantraAgent
WebCrawler: WebCrawler
SearchHippo: Fluffy the Spider
لیست بالا تعداد اندکی از Crawlerهاي هستند که باید سایت شما را مورد بررسی قرار دهند.
حال شاید بپرسید دانستن اینکه هر کدام از Crawlerها مربوط به چه موتور جستجویی هستند چه فایده اي دارد
من در جواب باید به شما عرض کنم که ما یکسري spambotsو Crawlerمخرب داریم که معمولا به یکسري
دلایل معمولا بی اخلاقانه دوست دارند با سایت ها به ویژه سایت هاي مهم و حساس ارتباط برقرار نمایند. اگر شما
نام آن ها را بدانید به آن ها اجازه ارتباط با سایت خود و همچنین بررسی اطلاعات شخصی و حساس خود را نخواهید
داد. البته تضمین صددرصدي هم وجود ندارد.
Robots متا تگ
وقتی که از متا تگ Robotsاستفاده می نمایید این امکان را براي Crawlerها فراهم می نمایید که به جاي
استفاده از فایل robots.txtاز این تگ استفاده نمایند و با سایت شما ارتباط برقرار نمایند. متا تگ robotsقطعه
کدي به صورت HTMLمی باشد که در تگ > <HEADسایت شما قرار می گیرد. این متا تگ براي کسانی که
می خواهند از داخل سایت Crawlerها را کنترل نمایند مناسب می باشد.
به مثال زیر توجه نمایید:
<html>
<head>
<meta name="robots" content="noindex, nofollow">
<meta name="description" content="page description.">
<title>
Web Site Title
</title>
</head>
<body>
کد بالا بیانگر این می باشد که Crawlerها نباید محتویات سایت را ایندکس نمایند و نباید لینک هاي سایت را
دنبال نمایند.
به مثال هاي زیر نیز توجه نمایید:
<meta name="robots" content="index,follow">
<meta name="robots" content="noindex,follow">
<meta name="robots" content="index,nofollow">
<meta name="robots" content="noindex,nofollow">
تفاوت عمده اي که بین فایل robots.txtو متاتگ هاي robotsوجود دارد این است که متا تگ robotsاین
امکان را براي ما فراهم نمی کند که Crawlerخاصی را انتخاب نماییم و همچنین در برابر با robots.txtداراي
دقت خیلی کم تري می باشد.
خیلی از Crawlerها هستند که نه فایل robots.txtو نه متاتگ هاي robotsرا می شناسند و شما نیز
نمی توانید کنترلی بر روي آن ها داشته باشید. همانطور که Crawlerها می توانند موجب ایندکس شدن صفحات
شما شوند ، همچنین می توانند در صورتی که درست کنترل و هدایت نشوند موجب آسیب به سایت شما شوند.
فایل استاندارد robots.txtبراي جوملا
به صورت استاندارد فایل robots.txtبراي جوملا به صورت زیر می باشد:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
همانطور که مشاهده می کنید بعضی از دایرکتوري هاي خاص براي موتورهاي جستجو بلوکه شده اند.
یک نکته خیلی مهم در رابطه با دستور /Disallow: /images
به صورت استاندارد دایرکتوري مربوط به تصاویر براي موتورهاي جستجو بلوکه شده است. با این کار شما این امکان
را به موتورهاي جستجو نخواهید داد تا تصاویر مربوط به سایت شما را ایندکس نمایند. این نکته خیلی مهمی می باشد
که اکثر سایت هاي جوملایی در ایران آن را رعایت نمی کنند. یعنی اگر شما لوگو یا برند تجاري داشته باشید و در
سایت خود استفاده کرده باشید در موتورهاي جستجو ثبت نمی شود . البته زمانی شما می توانید این کار را انجام دهید
که تصاویر شما بهینه سازي شده باشند. بدین گونه که باید تصاویر شما داراي نام باشند. همچنین می بایست از تگ
altبراي زبان فارسی استفاده نمایید. این کار چند حسن دارد، مثلا اگر کاربر نتواند تصاویر را در سایت شما ببیند
می تواند متن داخل altرا مشاهده کرده و مثلاً این اطمینان برایش حاصل شود و بر روي تصویر کلیک نماید. مزیت
دیگري هم که دارد این است که اگر تصویر به جایی لینک داده شده باشد متن داخل altیک جورایی حکم
anchor textدارد. البته خود متنی که در تگ altقرار می گیرد باید شرایطی خاص داشته باشد، مثلا این متن
طولانی نباشد و از کلمات کلیدي سایت به صورت مکرر در آن ها استفاده نشود. ولی توصیه می شود از تعداد زیادي از
تصاویر براي این منظور استفاده نشود. اگر تصاویر شما به این گونه باشند پس بهتر است که دستور
/ Disallow: /imagesاز فایل robots.txtخود حذف نمایید. اگر شما SEF patchرا بر روي سایت خود
نصب نمایید این کار را براي شما انجام می دهد.
بسیاري از کاربران همواره از من پرسیده اند که altبراي تصاویر چگونه ایجاد میشود ؟
براي این کار زمانی که در ادیتور جوملا تصویري را قرار میدهید.
بر روي تصویر کلیک نمایید سپس دکمه را فشار دهید با فشار این دکمه پنجره اي براي شما باز میگردد به شرح
زیر
در روبروي گزینه Titleشما میتوانید altتصویر را بنویسید .
نکته مهم دیگري که در رابطه با تصاویر وجود دارد دادن ابعاد به تصویر است گوگل دوست دارد جستجو گران خود را
با سایز تصاویر آشنا نماید به همین دلیل یکی از نکات مهم در رابطه با تصاویر این است که ابعاد آن مشخص باشد
براي مشخص نمودن ابعاد تصویر بر روي تب Appearanceکلیک نمایید و در قسمت Dimensionsابعاد
مورد نظرتان را براي تصاویر وارد نمایید.
سپس گزینه updateرا بزنید بدین ترتیب تصاویر شما هم داراي عنوان ALTمیباشد و هم داراي ابعاد .
یک نکته دیگر در رابطه با تصاویر وجود دارد و آن این است که تصاویر شما میباید بهینه نیز باشد . بهینه بودن یک
تصویر براي موتورهاي جستجو داراي فاکتورهاي مختلفی است به جهت صرفه جویی در وقت سایتی را به شما معرفی
میکنم که وظیفه بهینه سازي تصاویر را به صورت آنلاین بر عهده دارد .
http://www.imageoptimizer.net/Pages/Home.aspx
فایل xmlنقشه سایت :
فایل xmlنقشه سایت در واقع همراه و همکار فایل robots.txtمحسوب می شود . با استفاده از این فایل شما به
Crawlerها خواهید گفت که چه قسمت هایی در سایت شما براي ایندکس کردن آن ها وجود دارد. در حال معمول
این فایل شامل تمام آدرس هاي موجود در یک وب سایت می باشد. دلیل استفاده ازاین فایل این است که صفحات
واقعی سایت خود را به Crawlerھا معرفی نموده و اطمینان لازم جهت ایندکس شدن این مطالب براي آن ها
کسب شود. این فایل در همان مکانی که فایل robots.txtقرار گرفته قرار می گیرد و شما می توانید آن را در
وبستر یا دایرکتوري هاي موتورهاي جستجو ثبت نمایید. از دیگر مزیت هاي دیگر استفاده از نقشه سایت این است که
موجب می شود که موتورهاي جستجو صفحات شما را زودتر در دیتابیس خود ایندکس نمایند. البته این موضوع را هم
به شما عرض کنم که استفاده از این فایل تضمینی براي ایندکس شدن تمام صفحات شما را نمی دهند و تنها به
عنوان یک راهنما براي Crawlerها عمل می نماید. سایت هاي زیادي هستند که به صورت رایگان این امکان را
به شما می دهند تا بتوانید نقشه سایت خود را ایجاد نمایید ولی به این دلیل شاید دوستانی بخواهند به صورت حرفه
اي از کم و کیف آن ها مطلع شوند من به آموزش آن می پردازم:
چگونه شخصا فایل xmlنقشه سایت خود را ایجاد نمایید :
نقشه سایت شما احتیاج به دو بخش اصلی دارد.
-١نقشه شما باید شامل تگ هاي XMLباشد
-٢نقشه شما باید بر اساس UTF-٨نوشته شود و نوع کدهاي به کار رفته شامل کدهاي اسکی می باشد.
همچنین چیز دیگري که شما به آن نیاز دارید کدهاي Entity Escapeهستند که جایگزین برخی از کارکترها
می شوند. می توانید جدول زیر را مشاهده نمایید:
کارکترهاي Escapeدر آدرس سایت جایگزین کارکترهایی که در بالا نشان داده شده اند می شوند.
به آدرس زیر توجه کنید:
http://www.yoursite.com/test.html&q=name
این آدرس با استفاده از کدهاي Escapeبه صورت زیر در می آید:
http://www. yoursite.com/test.html&amp;q=name
البته شما براي ایجاد نقشه سایت خود باید با تگ هاي XMLکه در نقشه سایت بکار می رود آشنا باشید. در زیر
درباره این تگ ها توضیح داده ام:
.1فایل sitemapحتما باید با تگ آغازین > <urlsetشروع شده و با تگ پایانی > </urlsetخاتمه یابد.
.2تگ > <urlبه عنوان تگ منشاء ) (parentبراي هر آدرس معرفی شده استفاده گردد.
.3براي معرفی هر آدرس از تگ > <locاستفاده می شود.
lastmod .4براي اعلام آخرین تاریخ معرفی
changefreq .5مشخص کننده میزان و دوره تغییر می باشد.
priority.6میزان اهمیت صفحه را مشخص می کند که به صورت پیشفرض 0.5می باشد.
توضیح تگ هاي مورد استفاده
>) <urlsetاجباري(
مشخص کننده نوع استاندارد مورد استفاده در فایل . xml
>) <urlاجباري(
تگ منشاء براي آدرس هاي معرفی شده. تگهاي بعدي در بین دو تگ ابتدایی و انتهایی این تگ قرار می گیرند.
>) <locاجباري(
مشخص کننده آدرس صفحه معرفی شده. آدرس وارد شده در این قسمت، می بایست به صورت کامل وارد شود و
نباید بیش از 2048کاراکتر باشد.
) Lastmodاختیاري(
مشخص کننده آخرین تغییر یا اصلاح می باشد.
( )اختیاريChangefreq
این یک دستور نیست و تنها به عنوان یک تذکر به کار گرفته می شود.
Priority
میزان اهمیت صفحات را مشخص می کند و مقدار متغیري بین 0تا 1دارد.
البته باید بگویم که تعیین میزان اهمیت صفحات تاثیري در جایگاه آدرس صفحه شما در موتورهاي جستجو ندارد.
می توانید از نمونه زیر الگو بگیرید:
<?xml version="١.٠" encoding="UTF-٨"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/٠.٩">
<url>
<loc>http://www.yoursite.com/</loc>
<lastmod>٢٠١٠-٠١-٠١</lastmod>
<changefreq>monthly</changefreq>
<priority>٠.٨</priority>
</url>
<url>
<loc>http://www.yoursite.com/test?item=١٢&amp;desc=vacation_hawaii</loc>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.yoursite.com/test?item=٧٣&amp;desc=vacation_new_zealand<
/loc>
<lastmod>٢٠٠٨-١٢-٢٣</lastmod>
<changefreq>weekly</changefreq>
</url>
<url>
<loc>http://www.yoursite.com/test?item=٧٤&amp;desc=vacation_newfoundland
</loc>
<lastmod>٢٠٠٤-١٢-٢٣T١٨:٠٠:١٥+٠٠:٠٠</lastmod>
<priority>٠.٣</priority>
</url>
<url>
<loc>http://www.yoursite.com/test?item=٨٣&amp;desc=vacation_usa</loc>
<lastmod>٢٠٠٤-١١-٢٣</lastmod>
</url>
</urlset>
اگرنقشه سایت شما در آدرس
http://www.yoursite.com/test/sitemap.xml
قرار داشته باشد . هر آدرسی که با http://www.yoursite.com/testشروع می شود می تواند در
نقشه سایت شما قرار بگیرد. و اگر آدرسی مثل
http://www.yoursite.com/new
داشته باشد نمی تواند در نقشه سایت شما قرار گیرد. براي حل این مشکل ما به شما سفارش می کنیم هنگام ایجاد
نقشه سایت از آدرس پایه سایت خود یعنی http://www.yoursite.comبراي ایجاد نقشه سایت خود استفاده
نمایید. شما می توانید نقشه سایت خود را به فایل robots.txtاضافه نمایید. این نکته هم عرض کنم که تفاوتی
ندارد در چه قسمتی از فایل robots.txtنقشه سایت را قرار می دهید. چیزي که مهم می باشد این است که براي
معرفی نقشه سایت خود در فایل robots.txtاز دستور > <sitemap_locationاستفاده نمایید. به جاي
locationباید آدرس محلی که نقشه سایت شما در آن جا قرار دارد، جایگزین نمایید به مثال زیر توجه کنید:
Sitemap: <sitemap_http://www.yoursite.com/sitemap.xml>
شما می توانید از بیش از یک نقشه سایت استفاده کنید. براي این منظور باید از site mapindexاستفاده کنید. که
این کار معمولا رایج نیست ولی شما می توانید با مراجعه به سایت ما نحوه ایجاد چندین نقشه سایت را فرا بگیرید.
درباره محدودیت یک نقشه سایت هم خدمت شما عرض کنم که نباید بیشتر از 50000آدرس و فضایی معادل
١٠MBبراي هر نقشه سایت داشته باشید. هم چنین اگر از چند نقشه سایت در یک site-map indexاستفاده می
کنید نباید بیش از 1000نقشه سایت استفاده کنید.
قصد ما این بود که ابتدا به مبانی علمی ایجاد نقشه سایت بپردازیم اما ابزار آنلاینی وجود دارد که ایجاد نقشه سایت را
براي شما بسیار آسان مینماید این ابزار آنلاین را میتوانید در آدرس زیر بیابید :
http://www.xml-sitemaps.com/

پنج شنبه, 20 آبان 1395 سئو در جوملا
شنبه, 24 مهر 1395 سرانجام پیج رنک گوگل

سرانجام پیج رنک گوگل

همانطور که میدانید گوگل در طی چندین سال به طور مرتب تقریبا هر سه ماه یکبار پیج رنک صفحات را آپدیت می کرد و این پیج رنک یکی از فاکتورهای مهم در تعداد ورودی گوگل و نشان دادن یا ندادن هر سایت در صفحات اول نتایج گوگل بود. اما مدتی ست که از بروزرسانی مجدد گوگل گذشته است و تلاش افرادی که در بروزرسانی سایت خود اقدام کرده اند بی نتیجه مانده است.در این مقاله از مجموعه مقالات طراحی سایت می خواهیم تا به سرانجام پیج رنک گوگل پی ببریم.

مت کاتس در صحبت هایی در مورد پیج رنک گوگل به سرانجام پیج رنک گوگل اشاره کرده است. بر اساس گفته ی مت کاتس که در مورد عدم بروز رسانی پیج رنک گفته شده، ایده حذف پیج رنک را در ذهن تقویت می کند. همچنین مت کاتس اشاره میکند که پیج رنک یک سایت نشانگر کیفیت محتوای آن نیست با اینکه بر رتبه بندی نتایج گوگل تاثیر گذار است. به گفته او پیج رنک تنها نشان دهنده تعداد لینک های ورودی به یک سایت از سایت های دیگر اینترنت است.

عوامل موثر در پیج رنک

به عبارتی یکی از عواملی که می تواند در افزایش پیچ رنک موثر باشد ساختار و کیفیت کدنویسی می باشد و سایت باید یک صفحه اصلی داشته باشد و به راحتی بتوان به صفحات مهمتر دسترسی پیدا کرد (مانند نمودار درختی). اینکار موجب می شود تا پیج رنک سایت شما افزایش پیدا کند.

همچنین برای بهبود جایگاه خود در موتورهای جستجوگر گوگل استفاده از محتوای مفید و با کیفیت از اهمیت بالایی برخوردار است.
به علاوه صحبت های مت کاتس نشان می دهد که اگر محتوای سایت گسترش پیدا کند و لینک های بیشتری به سایت ایجاد شود می تواند روی پیج رنک سایت تاثیرگزار باشد.

و در آخر با توجه به صحبت های مت کاتس می توان متوجه شد که مفهوم پیج رنک بصورت یک عدد مشخص تا حدی فراموش شده و به کاربران اینترنتی ارائه نخواهد شد ولی ارزش و اهمیت کسب بک لینک های طبیعی و مناسب از سایت های معتبر همچنان حفظ شده و بر رتبه بندی نتایج جستجو و افزایش پیج رنک و ارتقاء پیج رنک تاثیرگذار است.

شنبه, 24 مهر 1395 نگاه گوگل به تعداد صفحات سایت

نگاه گوگل به تعداد صفحات سایت

ماه گذشته، گوگل با ایجاد نمودن فرمی در گوگل داکس، از کسانی که فکر می کنند ممکن است یک سایت خاص و مورد نظر ایشان، از توجه گوگل دور مانده و جایگاه مناسبی در جستجو نیافته، درخواست کرد که در این فرم، کاربران با درج نام سایت (نام دامنه) و توضیحی در این ارتباط که چرا شما فکر می کنید این سایت جایگاه مناسبی ندارد، درج نمایند و گوگل آن را بررسی خواهد کرد،در این مقاله از طراحی سایت می خواهیم تا به نگاه گوگل به تعداد صفحات سایت بپردازیم.

مت کاتس –مدیر ارشد بخش مبارزه با اسپمینگ گوگل- می گوید: سایت هایی با اطلاعات محتوایی و صفحات بیشتر از دو جهت می توانند شانس بیشتری در رده بندی گوگل داشته باشند. بدون شک این مطالب نباید کپی باشند.

وی در این ویدیو می گوید که زمانی که صفحات سایتتان را افزایش می دهید، این شانس را دارید که کلمات کلیدی بیشتری نیز استفاده کنید و برای کلمات کلیدی بیشتری، مطالب را سئو کنید. چراکه در حالت عادی امکان درج بیش از دو یا سه کلمۀ کلیدی اصلی نیست.

این "نبودن" به معنای امکان نداشتن و ممنوع بودن نیست. بدین معنی است که نمی توان برای یک صفحه بیش از دو یا سه کلمه کلیدی را متصور شد.

مطلب بعد در ارتباط با سایتهایی با صفحات بالاست. این نوع سایتها به دو دسته تقسیم می گردند؛ یا سایتهایی که مطالبشان را مستقیما از صفحات دیگر کپی می کنند و یا سایتهایی با صفحات بالا و نسبتا بالا که خود تولید کنندۀ محتوا و مطالب مفید هستند. این سایتها شانس زیادی برای دریافت بک لینک های واقعی و معرفی از جانب سایت های دیگر خواهند داشت که به اعتبار و کسب جایگاه بهتر در نتایج گوگل کمک زیادی خواهد کرد. همچنین افزایش بک لینک حقیقی، شانس ورود روبات های گوگل به سایت شما و ایندکس نمودن صفحاتتان را بالا خواهد برد.

شنبه, 24 مهر 1395 تاثیر محتوای تکراری بر سئو

تاثیر محتوای تکراری بر سئو

بسیاری از ادمین ها و بلاگرها تصور می کنند که اگر یک متنی تولید کردند، برای آنکه متنشان توسط افراد بیشتری خوانده شود و ربات های جستجوگر گوگل را بیشتر جذب کنند، آن را در چندین نشانی دیگر کپی می کنند. حال آنکه امروزه باید بدانیم که حتا نشانی هایی که بعضا با www و همچنین بدون این 3 حرف، فعال هستند نیز در خطر جدی ایندکس نشدن و جریمه شدن هستند.

گوگل سخت تلاش می کند تا صفحاتی با اطلاعات متمایز از سایر صفحات وب، ایندکس کند و نشان دهد.

گوگل چندین راه برای پیشگیری از ایجاد لینکهای تکراری و همچنین راههایی جهت نشان دادن آنچه که شما می خواهید برایتان ایندکس شود را پیش پایتان می گذارد:

  •     تلاش کنید تا لینکهای داخلی‏تان بدون نقص باشند.
  •     از وبمستر تولز برای آنکه به گوگل بگویید کدام قسمت از سایتتان را ایندکس کند استفاده کنید. شما می توانید به گوگل، دومین اصلی تان را معرفی کنید.
  •     کاربران از دیدن صفحات خالی خوششان نمی آید. پس تا جای ممکن از این اقدام جلوگیری نمایید. برای مثال: صفحاتی را که هنوز برای آن مطلبی ندارید، ایجاد و منتشر نکنید. اگر قصد ایجاد چنین صفحاتی را داشتید، از noindex meta tag جهت قفل نمودن این گونه صفحات از ایندکس شدن استفاده کنید. این بدین معناست که از کد nofollow و نظایر آن که در بسیاری از سی ام اس ها (که جدیدترین شان وردپرس است و به راحتی این کار را برای لینک ها انجام می دهد) تعریف شده، استفاده نمایید.

در موارد نادر، الگوریتم گوگل ممکن است یک URLی را از یک سایت انتخاب کند که در حال انتشار مطلب شما بدون اجازه تان است. اگر شما معتقدید که آن سایت در حالت کپی برداری مطلب شما بدون رعایت قوانین کپی رایت است، احتمالا باید با هاست سایت مربوطه تماس بگیرید و درخواست حذفش را بدهید. به علاوه، می توانید درخواست حذف آن صفحۀ خاص را از طریق صفحۀ "درخواست تکمیل فرم مخصوص به قوانین نقض شده" به گوگل بفرستید.

تمام این موارد برای حفاظت از حقوق افراد ذکر شد. اما چه اتفاقی برای سایتهایی که مطالب و محتوا و دسترنج دیگران را با یا بدون ذکر منبع (امروزه برای صفحۀ نتایج جستجوی گوگل تفاوتی نمی کند) بر روی سایت خودشان پیاده می کنند می افتد؟

پیش از اشاره به این مطلب باید دوباره خاطر نشان کرد که حتی صفحات داخلی یک سایت اگر مشابه هم نیز باشند، بر سئو و ایندکس سایتتان تاثیر خواهد گذاشت. به همین خاطر ابزار مختلفی را که وبمستر تولز در اختیار کاربران گذاشته نیز می توان بسیار کاربردی یافت. در این ارتباط در مقالات پیشین توضیحاتی را ارائه دادیم و در آینده نیز مقالاتی از این دست منتشر خواهد شد.

برویم سر بحث اصلی!

گوگل و رباتهای جستجوگرش پس ارائۀ الگوریتم مرغ مگس خوار، دقت فراوانی در گشتن به دنبال اولین صفحه ای هستند که با توجه به زمان و تاریخ ایندکس شدن، مطلب را درج کرده است و باقی صفحات را از بخش نتایج جستجو حذف خواهند کرد. البته در صورت درخواست کاربر، گوگل می تواند صفحات تکراری را نیز نشان دهد اما در حالت عادی این صفحات برای گوگل فاقد ارزش و محتوا هستند.

شنبه, 24 مهر 1395 چه لینک هایی از نظر گوگل غیر واقعی هستند؟

چه لینک هایی از نظر گوگل غیر واقعی هستند؟

با توجه به تعدد پرسشهای کاربران محترم، امروز مقاله ای را تحت عنوان ذکر شده در بخش مقالات طراحی سایت خدمتتان ارائه می کنیم.

لینک های مخرب را پاک کنید

همانطور که پیشتر اشاره کردیم، گوگل پس از ارائۀ الگوریتم پنگوئن و سپس پنگوئن 2، ضد اسپم خود را تا جای ممکن فعال و بخشی را تحت عنوان واکنش دستی که توسط کارمندان

 گوگل مدیریت می شود ارتقا داد و موضوع بک لینک ها و بک لینک فروشی نیز حداقل در این حالتی که جا افتاده بود حذف و غیر کارآمد شد.

برای بازدید گرفتن و رسیدن به جایگاه مطلوب خود در گوگل، راه هایی را نظیر نوشتن به عنوان میهمان و فعالیت حرفه ای (و نه اسپم گونه) هم در مقالات پیشین بدان اشاره شد و هم بیشتر در این ارتباط خواهیم نوشت.

امروز اما، در خدمتتان هستیم و در ارتباط با بک لینک های غیر واقعی و در واقع تقلبی گفتگو می کنیم.

مدت تقریبا قابل توجهی است که فروختن بک لینک به یک بیزینس بدون دردسر و البته با کلاه گذاشتن بر سر ربات های گوگل تبدیل شده است. بدین معنی که فرض بفرمایید اگر یک زمانی وبمستران و بلاگرهای ایرانی تنها از روی عشق و علاقه و ایجاد رابطه ای چند سویه بدون توجه به موضوعاتی چون سئو ، پیج رنک، رتبه و جایگاه گرفتن در نتایج گوگل، یکدیگر را لینک می کردند، امروز اما شرایط به گونۀ دیگریست. سایتهایی به وجود آمدند که پشت سرشان ممکن بود صد یا هزار عدد وبلاگ و سایت با یک سری محتوای تکراری، بی خاصیت و غیر مفید وجود داشته باشند.

مدیران این تارنماها، پس از مدتی که از گوگل رنک می گرفتند، لینک تمامی سایتهایشان را به یک صفحۀ استاتیک و ساده منتقل می کردند و برای درج تبلیغ شما (یا همان بک لینک معروف غیر واقعی) بر اساس رنکی که از خود گوگل گرفته بودند، اقدام به فریب گوگل نموده و بر اساس همان رنک دریافت شده به سایر مدیران سایت ها و وبلاگ ها تعرفه می دادند؛ و این مدیران ساده اندیش و بدون اطلاع بودند که کمترین تجربه ای در زمینۀ سئو و بک لینک نداشتند و گرفتار مسائل و سختی های سئو می شدند. چراکه اگر کوچکترین اطلاعی از موضوع سئو می داشتند، این هزینه، امید و وقتشان را بر روی سئوی حرفه ای سایتشان می گذاشتند تا برایشان نتیجه بخش باشد.

امروزه اما همانطور که گفته شد گوگل این نوع سایت ها و وبلاگ ها را جریمه خواهد کرد.

طبق مقاله ای که توسط بخش وبمسترتولز نوشته شده، نگاهی داریم به لینک های غیر واقعی و مشکلاتی که برای یک کاربر غیر وارد ممکن است به وجود آید. هر نوع پیوندی که تنها به صرف و هدف افزایش پیج رنک سایت و یا بهبود رتبه بندی شما در نتایج گوگل ایجاد میشود بعنوان لینک غیر طبیعی شناخته خواهد شد و برخلاف راهنمایی ها و اصول وبمستر گوگل است. که شامل لینک های ورودی به سایت و خروجی از آن میشود.

بک لینک های غیر طبیعی مخرب هستند

یک مثال و راه حل: وبسایت یا وبلاگی تنها به قصد بک لینک شدن و فروختن بک لینک ایجاد می شود و مطالبی غیر مفید بر روی خروجی آن درج می شود. در صورتیکه این تارنما و تارنماهای مشابه، پس از مدتی از آغاز فعالیت شروع به لینک دادن به یک سایت خاص کنند، نه تنها بک لینک ها (که شکلی شبیه به یک سایت معمولی دارند) جریمه می شوند (طبق آخرین آپدیت الگوریتم گوگل) که سایت لینک داده شده نیز در معرض خطر ربات های جستجوگر گوگل قرار خواهند گرفت.

راه حل

در یک واژه Disavow کردن این لینک ها و این سایت ها را می توان پیشنهاد نمود.

اما Disavow links چیست؟ و چگونه عمل می کند؟

وبمستر می تواند برای اطلاع دادن به ربات های جستجوگر در این مورد که آن لینک مورد نظر، مخرب است و سایت وی تمایلی به لینک شدن سایت خود ندارد، با تکمیل نمودن فرمی این مساله را به اطلاع ربات های گوگل می رساند و خود را از گزند لینک های مخرب حفظ می کند.

نحوۀ عملکرد Disavow links در وبمسترتولز

چه لینک هایی از نظر گوگل غیر واقعی هستند؟

    به صفحۀ اصلی وبمسترتولز بروید و بر روی سایت مورد نظرتان کلیک کنید.

    در قسمت داشبورد، روی Search Traffic کلیک کنید و سپس Links to Your Site را برگزینید.

    زیر عبارت Who links the most، بر روی More کلیک کنید.

     روی Download more sample links کلیک کنید. اگر روی Download latest links کلیک کنید نیز آخرین تاریخ ها را نیز مشاهده خواهید کرد.

زمانیکه در حال دیدن لینک های سایت خود در وبمسترتولز هستید، ممکن است بخواهید هر دو نسخۀ دومین با www و بدون www را تایید کنید. برای گوگل این دو کاملا متفاوت هستند. نگاهی به اطلاعات هر دو بیندازید.

به ترتیب زیر می توانید لینک های مورد نظر را Disavow کنید.

    به صفحۀ diwavow links tool page بروید.

    سایت خود را انتخاب کنید.

     

    بر روی Disavow links کلیک کنید.

    بر روی Choose file کلیک کنید.

نکته: بارگذاری یک فایل جدید باعث از بین رفتن بارگذاری های پیشین و جایگذاری فایل جدید با فایل قدیمی خواهد شد.

شنبه, 24 مهر 1395 عدم دسترسی گوگل به سایت

عدم دسترسی گوگل به سایت

دلایل عدم دسترسی گوگل به سایت را در این مقاله از طراحی سایت ، شرح خواهیم داد. دلایل زیادی وجود دارد که دسترسی ربات گوگل به صفحات و یا کل یک سایت محدود و یا کاملا قطع شده باشد. یکی از این دلایل می تواند تنظیمات DNS دامین یا ایجاد مشکلاتی در سرور سایت باشد. این قبیل اتفاقات می‏تواند به Seoی سایت شما آسیب بزند و در موارد بسیاری، موتور جستجوگر و ربات گوگل نتواند صفحات سایت را ایندکس کند.

برای یافتن اینکه آیا در تنظیمات DNSتان مشکلی وجود دارد یا خیر، گوگل در سلسلۀ ابزارهای وبمستر (Webmaster/tools...) به شما کمک خواهد کرد. برای پیدا کردن وجود یک مشکل در بخش DNS سایت خود به صفحه وبمسترتولز خود بروید و از مسیر Crawl، می توانید گزارشی از 90 روز قبل تا کنون را توسط این ابزار و این بخش مشاهده کنید.

جان مولر در این ارتباط می‏گوید:

این قبیل اتفاقات ممکن است در مدت کوتاهی بر سئو سایت شما تاثیر گذار باشد ولی در دراز مدت به جایگاه قبلی خود باز خواهید گشت. زمانیکه دسترسی روبات های گوگل به صفحات سایت شما ممکن شده و به بازخوانی مجدد و ایندکس آنها بپردازند دوباره جایگاه خود را در نتایج گوگل کسب خواهید کرد. ولی این امر نیازمند گذشت زمان خواهد بود. البته توجه داشته باشید که برگشت به جایگاه قبلی در صورتی رخ خواهد داد که تغییری اساسی در الگوریتم های گوگل در این زمان ایجاد نشده باشد.

این سخنان بدان معناست که سرور هر سایتی ممکن است حتا با توجه به آپتایم 99 درصدی، در مواقعی (حتی دقایقی) با قطعی مواجه شود و یا با تنظیمات اشتباه و دسترسی‏ها و محدودیت‏ها با استفاده از فایل robots.txt، موجب بروز خسارتی چون عدم ایندکس شدن صفحات سایت توسط ربات گوگل گردد که با استفاده از یکی دیگر از امکانات وبمسترتولز یعنی بخش Crawl Errors نیز تا حد قابل توجهی حل شدنیست.

برای رفع این موضوع به بخش Crawl و زیرمنوی Crawl Errors بروید و لیست صفحاتی که به دلیل عدم وجودشان، خطا گرفته و ایندکس نشده اند را در دو نسخۀ وب و گوشی هوشمند، مشاهده نمایید. در 95 درصد از مواقع، این صفحات، صفحاتی هستند که دیگر وجود ندارند و همان خطای معروف 404 را با خود به یدک می کشند.

2 راه برای رفع این مساله وجود دارد:

1- نشانی های مورد نظر را محتوا دار نموده و سپس Mark as fixed کنیم.

2- و یا از طریق حذف لینک ها به 3 روش (که توضیح آن از حوصلۀ این جستار خارج است) از وجود لینک های اضافی در سایت خود جلوگیری کنیم.

سپس می توانید از طریق گزینۀ Fetch as Google تا 500 دفعه، دستور دوباره ایندکس شدن صفحۀ اصلی و یا تمام صفحات سایت را وارد کنید تا مجددا گوگل، سایت شما را بازبینی و ایندکس نماید.

صفحه1 از3