18 مشکل و مانع ایندکس مطالب شما در موتورهای جستجو

18 روش که رفتار وب سایت شما برای خزنده های موتورهای جستجو را دوستانه می کند

حذف موانع مربوط به فعالیت‌های نمایه‌سازی( یا ایندکس)  در موتور های جستجو

  1. مسدود کردن  ایندکس یا  فهرست بندی صفحه برای ربات ها از طریق متا تگ
  2. عدم رد گیری پیوند های صفحه
  3. مسدود کردن دسترسی به صفحات برای ایندکس یا  نمایه سازی از طریق robots.txt
  4. خطاهای URL
  5. URL های قدیمی
  6. صفحات با دسترسی ممنوع
  7. خطاهای سرور
  8. ظرفیت محدود سرور 
  9. تنظیمات بد وب سرور
  10. خطاهای قالب
  11. صفحات اشتباه در نقشه سایت
  12. پیوند داخلی بد
  13. ریدایرکت یا تغییر مسیرهای اشتباه
  14. سرعت بارگذاری کم
  15. صفحه تکراری ناشی از معماری ضعیف وب سایت
  16. کاربری های JS و CSS
  17. محتوای فلش
  18. فریم های HTML

مواردی که در پی می آید را به دو دسته تقسیم می کنیم: مواردی که شما می توانید توسط خودتان حل کنید و مواردی را که باید از یک توسعه دهنده یا یک وب مستر یا مدیر سیستم بهره مند شوید. اجازه دهید فرض کنیم شما  پیشینه این کار و مهارت های لازم برای آن را  دارید ، بنابراین تفکیک این دو  را به خودتان  وا میگذاریم.
اما همینقدر بگوییم که:
منظور ما از "حل کردن توسط خود شما" این است که: شما می توانید کد صفحات وب سایت و فایلهای روت را دستکاری کنید. همچنین شما باید دانش کافی در زمینه کد نویسی را داشته باشید (اینکه یک قطعه کد را در مکان مناسب و به روش صحیح تغییر یا جایگزین کنید).
و منظور ما از "کمک از یک متخصص: کلیه مهارت های لازم برای مدیریت سرور و یا مهارت های توسعه گر (=دولوپر)  وب مورد است.
ابتدا به مواردی بپردازیم که خزش یا کراون کردن خزشگر یا کراونر های موتورهای جستجو توسط فایل robot.txt یا متاتگ ها محدود یا ممنوع شده است
​ با بررسی تگ های متا و فایل robots.txt ، رفع مشکلاتی که  در پی میاید بسیار ساده است و می توان آنها را حل کرد ، به همین دلیل ابتدا باید به این موارد توجه کنید. کل وب سایت یا صفحات خاص به دلایلی ساده توسط گوگل ممکن است ناشناخته باقی بماند: یا کراوکرهای سایت آن مجاز به ورود به آنها نیستند، که چندین دستور bot وجود دارد که از خزیدن صفحه جلوگیری می کند. و خوب واضح است که  قرار دادن بدون دانش این پارامترها در robots.txt اشتباه است؛ با استفاده صحیح و دقیق از این پارامترها کمک می کند تا در زمان خزیدن صرفه جویی شود و به رباتها جهت دهی لازم برای یافتن مسیر دنبال کردن صفحات مورد نظر خود را بدهد.
1. مسدود کردن  ایندکس یا  فهرست بندی صفحه برای ربات ها از طریق متا تگ
اگر کد زیر را در صفحه ای داشته باشید، ربات جستجو حتی به محتوای صفحه شما نگاه هم نمی کند و مستقیماً به صفحه بعد تغییر مسیر می دهد. در ابتدا می توانید این مسئله را بررسی کنید که کد صفحه شما حاوی این دستور خط هست یا نه :​

<meta name="robots" content="noindex" />

2-  عدم رد گیری پیوند های صفحه
در اینجا برخلاف  بند قبلی صفحه فهرست برداری می شود اما ربات پیوندهای آورده شده را در نظر نمی گیرد در حالیکه باید تمام آن لینک ها را دنبال کند اما جرا این اتفاق می افتذ؟
در صفحه خود دنبال این کد بگردید

<meta name="robots" content="nofollow">
این برای کل پیوندهای داخل صفحه است اما زمانی فقط یکی از پیوندها به این مشکل برخورده
یا دنبال کاربرد رویداد onclick بگردید و یا فرمان یا rel نوفلاو
href="pagename.html" rel="nofollow"/>
 
​​3. مسدود کردن دسترسی به صفحات برای ایندکس یا  نمایه سازی از طریق robots.txt
Robots.txt اولین فایل از وب سایت شما است که خزندگان به آن توجه می کنند. دردناک ترین چیزی که می توانید آنجا پیدا کنید تکه  کد زیر است:
User-agent: * Disallow: /
 
همین تکه کد که چهار کلمه هم نمی شود باعث می شود کل وب سایت شما از دسترس موتورهای جستجو خارج شود
چرا که بدان معناست که تمام صفحات وب سایت از فهرست بندی معاف شده اند.​
البته این محدودیت می تواند  بصورت جزئی نیز اعمال شودمثلا:
User-agent: * Disallow: /products/
در این حالت ، هر صفحه در زیر پوشه Products برای فهرست بندی مسدود می شود و بنابراین ، هیچ یک از  محصول های قرار گرفته در این پوشه در Google قابل مشاهده نخواهد بود.

اما در ادامه داستان می رسیم به پیوندهای شکسته:
تو مبحث UX پیوندهای شکسته همیشه یک تجربه بد برای کاربران شما و البته برای خزندگان است.
هر صفحه ای که ربات جستجو نمایه می کند (یا تلاش برای فهرست کردن) زمانی است برای خزیدن در وب سایت شما به شما اختصاص داده شده اس. با این حساب ، اگر پیوندهای شکسته زیادی دارید ، ربات تمام وقت خود را برای ایندکس کردن آنها تلف می کند و به صفحات مرتبط و با کیفیت نمی رسد. و زمان شما باز دست می رود

گزارش خطاهای Crawl در کنسول جستجوی Google (همان وب مستر قدیم) یا بررسی لینک های شکسته داخلی در Audit Site SEMrush به شما در شناسایی این نوع از مشکلات کمک می کند. 
​4. خطاهای URL:
​خطای URL معمولاً توسط تایپ آدرس اینترنتی در آدرس بار مرورگر برای درخواست صفحه ایجاد می شود (پیوند متن ، پیوند تصویر ، پیوند فرم). حتماً بررسی کنید که تمام پیوندها به درستی تایپ شده اند.
5- URL های قدیمی
اگر اخیراً دستخوش تغییر وب سایت شده اید، مثل تغییر دامنه و هر  تغییر دیگری که منجر به تغییر ساختار URL شود، باید این مسئله را چندباره بررسی کنید. تا مطمئن شوید که پیوند URL های قدیمی یا حذف شده از هر یک از صفحات به درستی تغییر مسیر داده شده اند.

​​6. صفحات با دسترسی ممنوع
اگر صفحاتی از وب سایت شما ، به عنوان مثال کد وضعیت 403 را باز می گردند ، ممکن است که این صفحات فقط برای کاربران ثبت نام شده قابل دسترسی باشد. این پیوندها را به عنوان nofollow علامت گذاری کنید تا زمان ربات های موتورهای جستجگوگر صرف خزیدن پوچ هدر نرود.
7. خطاهای سرور
تعداد بیش از هد خطاهای 5xx (به عنوان مثال خطای 502) ممکن است علامتی از مشکلات سرور باشد. برای حل آنها ، لیست صفحات با خطا را در اختیار شخص مسئول توسعه و نگهداری وب سایت قرار دهید. این فرد باید از اشکالات یا مشکلات پیکربندی وب سایت که باعث خطاهای سرور می شوند ، مطلع شود تا بتواند برایرفع آنها اقدام کند.
8. ظرفیت محدود سرور 
در صورت ترافیک یا بارگیری بیش از حد سرور شما ، ممکن است پاسخ به درخواست های کاربران و ربات ها متوقف شود. هنگامی که این اتفاق می افتد ، بازدید کنندگان شما پیام "اتصال به پایان رسیده" را دریافت می کنند. این مشکل فقط می تواند توسط متخصص نگهداری وب سایت حل شود که تخمین بزند ظرفیت و ظرفیت سرور باید افزایش یابد یا خیر.
9. تنظیمات بد وب سرور
این یک مشکل بزرگ خواهد بود. با تنظیم بد سرور این سایت می تواند برای شما به عنوان یک انسان کاملاً قابل رویت باشد ، اما پیغام خطایی را برای خزندگان سایت به وجود آورد ، بنابراین تمام صفحات یا تعدادی از آنها برای خزیدن در دسترس نیستند. این می تواند به دلیل پیکربندی خاص سرور رخ دهد: برخی از فایروال های برنامه وب (به عنوان مثال Apache mod_security) به طور پیش فرض Google bot و سایر ربات های جستجو را مسدود می کنند. به طور خلاصه ، این مشکل با تمام جوانب مرتبط باید توسط یک متخصص حل شود.
رسیدیم به بخشی از داستان که به نقشه سایت مربوط میشود
نقشه سایت به همراه robots.txt اولین اشخاصی را که هدف قرار می دهند خزنده های جستجوگرها می باشد. یک نقشه سایت صحیح به آنها کمک می کند که سایت شما به روشی که می خواهید ایندکس شوند، فهرست برداری شود. بیایید ببینیم چه اتفاقی می افتد وقتی که ربات جستجو  به نقشه سایت (های) شما برخوردمی کند.
​10. خطاهای قالب
چندین نوع خطای قالب سایت وجود دارد ، به عنوان مثال URL نامعتبر یا متاتگ ها و برچسب های از دست رفته (لیست کامل ، به همراه راه حل برای هر کدام ازاین خطا ها را در اینجا ببینید ).
همچنین ممکن است شما در اولین گام متوجه شوید که به اشتباه مسیر نقشه سایت شما توسط robots.txt مسدود شده است. این بدان معنی است که ربات ها نمی توانند به محتوای نقشه سایت دسترسی پیدا کنند. و از آن استفاده کنند.
11. صفحات اشتباه در نقشه سایت
رسیدیم به محتوا. حتی اگر برنامه نویسی وب نباشید ، می توانید درستی ارتباط URL ها را در نقشه سایت تخمین بزنید. نگاهی دقیق به URL های موجود در نقشه سایت خود بیندازید و اطمینان حاصل کنید که هر یک از پیوندها: مرتبط ، به روز شده و صحیح (بدون خط مشی و اشتباه) است. چرا که زمان خزیدن محدود است و ربات ها نمی توانند در کل وب سایت حرکت کنند ، علائم نقشه سایت می تواند به آنها کمک کند که ابتدا صفحات با ارزش را فهرست کنند. و اگر اقرار باشد نقشه سایت ها اشتباه مسیر دهی کند کارها به هم می ریزد. چرا که موتوهای جستجو بر حسب اعتمادی که به نقشه سایت شما می کنند در هر بار  شروع به خزش به داشته های خود اعتماد نمی کنند و به آنچه که در سایت مپ آمده اعتماد می کنند. پس این هشدار را جدی بگیرید که سایت مپ نباید مسیر غلط به رباتها بدهند و رباتها را با دستورالعمل های بحث برانگیزدر نقشه سایت به اشتباه نیندازید
​اطمینان حاصل کنید که آدرس های موجود در نقشه سایت شما از فهرست بندی توسط فرامین متا یا robots.txt مسدود نمی شوند.
موضوعات بعدی نکاتی برای حل مشکلات است. به همین دلیل توصیه می کنیم قبل از اینکه به موارد زیر برسید مراحل قبلی را طی کنید.
این دسته از مشکلات که مربوط به معماری سایت است می تواند باعث خنثی کردن یا مسدود شدن خزندگان در وب سایت شما شود.
12. پیوند داخلی بد
در یک ساختار وب سایت به خوبی بهینه شده ، تمام صفحات یک زنجیره بی مشکل را تشکیل می دهند ، به گونه ای که خزنده سایت می تواند به راحتی به هر صفحه برسد.
و متقابلا در یک وب سایت غیرقابل استفاده صفحات خاصی از دید خزنده خارج می شوند. دلایل مختلفی برای آن وجود دارد که می توانید با استفاده از ابزار  Site Audit  توسط SEMrush به راحتی مشکلات زیر را تشخیص و طبقه بندی کنید:

  • صفحه ای که می خواهید رتبه بندی کنید با هیچ صفحه دیگری در وب سایت مرتبط نیست. به این ترتیب دیگر فرصتی برای یافتن و فهرست بندی توسط ربات های جستجو وجود ندارد.
  • بین صفحه اصلی و صفحه مورد نظر لینک های واسط زیادی قرار داده شده است. روش معمول اتصال صفحه اصلی با زیر صفحه ها حداکثر 4 پیوند یا کمتر است ، در غیر این صورت این احتمال وجود دارد که ربات به آن نرسد.
  • پیوند های زیاد مثلا بیش از 3000 پیوند فعال در یک صفحه (کار بیش از حد برای خزنده).
  • پیوندها در عناصر سایت غیرقابل توصیف پنهان شده اند: ارسال فرم ، فریم ، پلاگین های مورد نیاز (اول از همه جاوا و فلش).

در اکثر موارد ، مشکل اتصال داخلی چیزی نیست که بتوانید در یک گام حل کنید. بلکه به بررسی عمیق ساختار وب سایت با همکاری توسعه دهندگان نیاز دارید.
13. ریدایرکت یا تغییر مسیرهای اشتباه
تغییر مسیر جهت هدایت مجدد کاربران به صفحه مرتبط تر یا جدیدتر (یا بهتر ، صفحه ای که صاحب وب سایت دیدن آن را در این زمان مناسب تر می داند) لازم است. در اینجا کارهایی که ممکن است هنگام کار با تغییر مسیرها نادیده گرفته شود:
من اینجا یک بحث دقیق و موشکافانه را برای تغییر مسیر یا ریدایرکت بازکردم: همه چیز درباره ریدایرکت یا تغییر مسیر
باز با این حال یک توضیح اجمالی می دهم
تغییر مسیر موقت به جای دائم: یکی از کارهای ناپسند استفاده از 302 یا 307 برای تغییر مسیر است،  چرا که اگر لینک بالا را مطالعه کرده باشید آنجا گفتم که تغییر مسیر موقت سیگنالی است برای خزندگان که دوباره و دوباره به صفحه برگردند و زمان خزیدن را خرج کنید که مبادا لینک منقضی شده باشد. بنابراین ، اگر بدانید که صفحه ای که از آن ریدایرکت می شوید دیگر نیازی به ایندکس شدنندارد ، از تغییر مسیر 301 (دائمی) برای ریدایرکت آن استفاده کنید.
تغییر مسیر حلقه: ممکن است رخ دهد که دو صفحه به یکدیگر هدایت شوند. بنابراین ربات در یک حلقه گرفتار می شود و تمام زمان  خزیدن را هدر دهد. تغییر مسیرهای متقابل نهایی را دوبار بررسی و حذف کنید.
14. سرعت بارگذاری کم
هرچه سرعت بارگذاری صفحات شما سریعتر باشد ، خزنده سریعتر به سراغ پیوند بعدی می رود. هر ثانیه هم مهم است(هر ثانیه در یک سایت سریع معادل ایندکس شدند چندین پیوند است). و رنکیج شما یا موقعیت وب سایت در SERP با سرعت بارگذاری در ارتباط مستقیم است .

برای بررسی  سرعت وب سایت از Google Pagespeed Insights استفاده کنید. اگر سرعت بار بتواند کاربران را از بین ببرد ، می تواند چندین عامل مؤثر بر آن باشد.

عوامل سمت سرور: وب سایت شما به دلایلی ساده ممکن است کند شده باشد یا پهنای باند فعلی دیگر جوابگو نیست.که می توانید پهنای باند بیشتر را با قبول هزینه بیشتر از ارایه کننده سرور خود خریداری کنید

عوامل فرانت اند یا Front-end: یکی از مکررترین موارد کد غیرمجاز است. اگر حاوی اسکریپت های بزرگ و افزونه ها را درست استفاده نکنید ، سایت شما در معرض خطر است.
در موردی شخصا شاهد بودم که یک افزونه بد تا 10 ثانیه بارگذاری را کند کرده بود (درست است که داریم از ربات ها حرف می زنیم و به ظاهر کدهای جاوا اسکریپت تاثیری بر روی عملکرد رباتها ندارند اما همانطور که در فاکتور Speed Index گوگل دیده میشود کاملا تاثیر گذار است و در موردی که گفتم شاهدش بودم تا 5 ثانیه Speed Index رباتهای گوگل را پایین کشیده بود) همچنین فراموش نکنید که به طور مرتب بررسی کنید که تصاویر ، فیلم ها و سایر مطالب از این دست بهینه شده باشند و سرعت بارگذاری صفحه را کاهش نمی دهند.
15. صفحه تکراری ناشی از معماری ضعیف وب سایت
محتوای تکراری یا duplicate pages شایع ترین مشکل در SEO است که طبق مطالعه اخیر SEMrush  رایج ترین مشکل جستجوگرها ("11 Most Common On-site SEO Issues.") در 50٪ سایت ها دیده شده است . این یکی از دلایل اصلی عدم تأمین به زمان خزیدن است. Google زمان محدودی را به هر وب سایت اختصاص می دهد ، بنابراین با فهرست بندی همان مطالب ، از هدر رفتن نامناسب زمان اجتناب کنید. مشکل دیگر این است که خزندگان سایت نمی دانند کدام نسخه قابل اعتمادتر است و ممکن است در پیدا کردن اولویت صفحات اشتباه کنند ، مادامی که شما از موارد قانونی برای پاک کردن موارد کهنه شده استفاده نکنید. یا تگ ها خوب مسیر دهی نشده باشند یا....

برای رفع این مشکلات باید صفحات تکراری را شناسایی کرده و از خزیدن آنها به یکی از روش های زیر جلوگیری کنید:

  • صفحات تکراری را حذف کنید
  • پارامترهای لازم را در robots.txt تنظیم کنید
  • پارامترهای لازم را در برچسب های متا تنظیم کنید
  • تغییر مسیر 301 را تنظیم کنید
  • از rel = canonical استفاده کنید

16. کاربری های JS و CSS
در سال 2015 گوگل رسما ادعا کرد: "تا زمانی که شما Googlebot را از خزیدن به پرونده های JavaScript یا CSS خود مسدود نکنید ، ما قادریم صفحات وب شما را مانند مرورگرهای مدرن ارائه دهیم و محتوای آن را بفهمیم ." که این مطلب اینجا گفته شده: render and understand your web pages like modern browsers این ادعا برای موتورهای جستجو دیگر نیست. (یاهو ، بینگ ، و غیره) هر چند. می توان این معنا را از آن استخراج کرد که با عدم دسترسی دادن به موتورهای جستجو به کدهای جاوئا اسکریپت و استایل شات ها (css) در بعضی موارد نمایه سازی صحیح تضمین نمی شود.
در پایان این داستان من رسیدم به مواردی که دیگر یا دیده نمی شود یا کمتر دیده می شود و به همین دلیل هم من این دو مورد را در پایان قرار دادم
منابع منسوخ شده:
​​ 17. محتوای فلش:
استفاده از Flash یک شیب رو به پایین دارد که هم برای  UX  یا تجربه کاربر (فایلهای فلش در برخی از دستگاه های تلفن همراه پشتیبانی نمی شوند) و هم برای SEO. توصیه نمی شود 
من ده سال پیش مطلبی را در وبلاگ قدیمی خودم منتشر کردم که اینجاست: گوگل و جستجوی محتوا در متن فایلهای فلش
که بطور ضمنی گفته شد که « در کل گوگل فلش را در حاشیه می بیند و توجه جدی به آن ندارد اما در بینگ توجه خاصی به سایتهای فلش و فیلم و عکس شده است» با این تفکر اعتقاد دارم که محتوای متنی یا پیوندی در داخل یک عنصر Flash بعید است که توسط خزندگان ایندکس شوند. بنابراین ما پیشنهاد می کنیم به سادگی از آن در وب سایت خود استفاده نکنید.
18. فریم های HTML:
اگر سایت شما حاوی فریم است، خبرهای خوب و بدی درباره آن وجود دارد که شما را با آن آشنا می کنیم.
​frame tag element ها فقط در HTML 4 معتبر بودند و در HTML 5.0، منسوخ شده اند. دلیل این منسوخ شدن رو میتونید اینجا بخوانید:Frames in HTML documents
بنابراین اگر کماکان سایت شما از فریم استفاده می کند باید آنها را با یک راه حل به روز تر در سریع ترین زمان ممکن جایگزین کنید. مثلا شما میتونید از iframe جای frame ها استفاده کنید.
خوب داستان را من به پایان رساندم
آنچه خواندید حاصل تجربیات 15 ساله من در سئو است و همه را جدی بگیرید
برای اینکه بفهمید چه عواملی خزنده های گوگل را در وب سایت شما مسدود کرده اند باید سایت خود را از صفر تا صد مرور کنید. این نیازمند به یک تلاش شدید  و دستی  است. و بعد از آن هم ب باید به صورت روزمره با ابزارهای مناسب و قابل اعتماد کار کنید. اکثر راه حل های SEMrush  برای شما مفید خواهد بود تا بتوانید مشکلات را طبقه بندی و اولویت بندی کنید ، بنابراین می توانید بلافاصله پس از تهیه گزارش از SEMrush  به اصلاحات خود مشغول شوید. علاوه بر این ، بسیاری از ابزارها دیگر هم هستند که می توانند داده های خوبی به شما بدهند ، که به شما امکان می دهد با گذشت زمان تصویر بزرگی از عملکرد فنی وب سایت خود بدست آورید.
 

  • Thursday 10 October 19

با سلام و تشکر از مطلب خوبتان

از SEMrush که گزارشی می گیرم، حدود 500+ لینک خارجی را با کد 403 به عنوان پیوند شکسته پیدا کردم. اما وقتی آنها را باز می کنم ، فهمیدم که همه پیوندها به خوبی کار می کنند. پس چرا SEMrush آنها را به عنوان یک لینک خراب علامت گزارش کرده؟

سلام متقابل! با تشکر از سوال شما که عالی مطرح شده
اگر پیوندها در مرورگر فعال دیده میشوند و شما می توانید آنها را باز کنید  اما SEMrush آنها را خراب گزارش می کند ، بدین معنی است که ربات جستجوگر از خزیدن روی آن پیوندها منع شده اند
اگر آدرس سایت را داده بودی می شد برررسی بیشتر کرد

مقاله تان عالی نوشته شده .... حتی یک نکته هم برای گفتن باقی نمانده است :).
من خطایی را که مشاهده می کنم  در این پیوند است[پیوند توسط مدیر غیر قابل نمایش شده است]. تمام صفحات این سایت ایندکس می شوند اما موضوعات مربوط به لندیگ پیج  من در نتایج جستجو دیده نمی شود. با مطالعه این پست حدسهایی  تونستم بزنم و به این برسم که دقیقاً چه اشتباهی رخ داده است و این کمک شایانی بود
ممنون

meta من از تگ متا   "noodp"  با مقدار دهی robot در وب سایت خود استفاده کرد ه ام.
اما خزنده های گوگل قادر به خواندن محتوای صفحات وب سایت من نیستند آیا در این زمینه به من کمک می کنید؟

فقط همینقدر می تونم بگویم که "noodp" را نباید به کار می بردید
Noodp= No Open Directory Project
Noydir= No Yahoo Directory
اگر نمی خواهید صفحات شما در دایرکتوری های وب مثل dmoz بیاید باید از این تگ استفاده کنید.
ضمن اینکه استفاده از آن  اختیاری است و کاربرد دیگری ندارد
اون چیزی که شما باید مورد استفاده قرار می دادید "index, follow" بوده
البته از نظر تئوری 
چه از "noodp، noydir" استفاده کنید و چه از آن استفاده نکنید ، به رتبه بندی شما آسیب نمی رسد.ولی بااین حال بعید نیست که با برداشتن آن مشکلاتان رفع شود

یک نکته مهم و خیلی مهم:
در شماره 3 نوشتید که  Disallow در فایل robots.txt بدین معنی است که تمام صفحات وب سایت از ایندکس آن خود داری کنند.در واقع ، robots.txt با اعلام Disallow از خزیدن جلوگیری می کند ، نه ایندکس کردن.

یعنی ، آنها از خزیدن مسدود شده اند ، اما عوامل دیگر هنوز هم می توانند منجر به ایندکس شدن شوند. کمتر دیده می شود اما من این شرایط عجیب و گیج کننده را تجربه کرده ام! اگر صفحه ای از قبل از قرار دادن محدودیت دسترسی به مسیر مورد نظر ایندکس شود ، و بعد بل robots.txt آن را مسدود کنیم ، ممکن است برای همیشه ایندکس بماند. بنابراین لازم است متا noindex را در صفحه خود اضافه کنید و همچنین "Disallow" را از robots.txt حذف کنید تا با این کار خزنده دست بکار شود وتغییر شما را از طریق متا متوجه شود و Google بتواند دستورالعمل noindex را در صفحه مشاهده کند.

یک مقاله عالی و  قطعاً یک لیست کاملاً جامع.

ممنون

برای به اشتراک گذاشتن پست آموزنده تان متشکرم

اجازه بدهید به عنوان ناشناس موارد زیر را هم اضافه می کنم:
به عنوان کسی که دستی در این کار دارد نکته بسیار متداولی که در کار با آن برخورد داشته ام این است که بهترین کار،  طراحی ناوبری ساده و منطبق  با نیازهای ربات های عنکبوتی است که می تواند زمان خزیدن را کاملاً تحت کنترل بگیرد. و حذف تله هایی که ربات های جستجو را به دام می اندازد
این امر به راحتی با جستجوی عناوین تکراری ، توضیحات متا و توصیف های متعارف و یا جستجوی URL های واقعاً طولانی کشف می شود. پارامترها را در ادامه آدرس های خود اضافه کنید و صفحه را از مرورگر باز کنید و ببینید آیا فیلترهای موجود در آن چه رفتاری را در  سایت ایجادمیکند. سپس فقط کمی با مخلوط کردن آنها  با فیلترها کمی بازی کنید. اگر می بینید که تعدادی از URL های منحصر به فرد ایجاد می شوند و به نظر می رسد تعداد تقریباً نامحدود URL ایجاد شده است، حتی اگر یک مورد پیدا کرده اید. زنگ خطر برای شما به صدا درآمده است و دستیابی به راه حل برای این مشکل می تواند یک پروژه کوتاه مدت و بلند مدت باشد. شما می توانید آن را با یک robots.txt بسیار خوب کنترلکنید ، اما اصلاحات بزرگتر ممکن استحتی به تغییر یا به روزرسانی CMS بینجامد.
در این بررسی باید فهرستهای CSS ، تصاویر و جاوا اسکریپت را در robots.txt که بسیار متداول است را هم در نظر بگیرید
اما بله ، تعداد زیادی لینک بد و پیوندها و زنجیره ها یا حلقه های تغییر مسیر همه چیز خوبی هستند که می توانید به دنبال آن باشید و حتی اگر فقط یک نمونه گیری کوچک انجام دهید (هزار صفحه خزیدگی) تشخیص آن بسیار ساده است.

همچنین ، استفاده از نام های غیر استاندارد و یا مکان هایی برای robots.txt و نقشه سایت ، xml و پیوند نداشتن به sitemap.xml خود از robots.txt ، کشف چیزی بسیار آسان است.

یکی آخر ، قول می دهم آیا آنها با HTTP و HTTPS زندگی می کنند؟ شما فقط میزان URL هایی را که می توانید خزنده کنید ، دو برابر کردید.

امیدوارم این کمک کند

با تشکر از مطلب خوبتان
موضوعاتی که شما بیان کردید بسیار مهم است و در صورت بروز به یک وب سایت آسیب زیادی می رساند. اگر یک وب سایت نسبتاً کوچک دارید که بتوانید تک تک این موارد را به صورت دستی بررسی کنید. که هیچ 
اما برای وب سایت های بزرگ یا تعداد زیاد وب سایت این کار به سختی امکان پذیر است :-) با این مفروضات من خودم از Netpeak Spider استفاده می کنم ، تقریباً تمام موضوعاتی که در اینجا پوشش داده شده را بررسی می کند و به نظر من این تنها ابزاری است که می تواند مسائل مربوط به سایت مپ  را هم تشخیص دهد.

من از مطلب  جذاب و پر شما یاد یک خاطر بد افتادم،
روزی روزگاری ، خیلی درگیر ماجراجویی برای بهبود  SEO شدم، اقدام تاسف آورانه ای که اون روزها انجام دادم افزودن  "Disallow: /" به فایل  robots.txt بود.
بدون اینکه  حدس بزنم که چه فاجعه ای در انتظارم خواهد بود،
فقط به  جذابیت کارهای سئو فکر می کردم.
یک  سایت خبری نسبتاً بزرگ که مدیریتش به من سپرده شده بود  ناگهان و تقریباً کامل  از فهرست جستجوها ناپدید شد.
 البته مدتی بعد خیلی سریع بهبود یافت، ولی به قیمت از دست رفتن اون کار برا ی من

خاطره تلخی بود
موفق باشی
کاربران بیان میتوانند بدون نیاز به تأیید، نظرات خود را ارسال کنند.
اگر قبلا در بیان ثبت نام کرده اید لطفا ابتدا وارد شوید، در غیر این صورت می توانید ثبت نام کنید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی
بهبود رتبه بندی گوگل و آلکسا در بلاگ رنکیج