loading...
blacknight
blacknight بازدید : 60 دوشنبه 18 بهمن 1395 نظرات (0)

بهینه‌سازی موتور جستجو، (به انگلیسی: Search engine optimization)، به اختصار سئو (به انگلیسی: SEO)، یك روند مناسب برای بهبود دید یك وب سایت یا یك صفحه وب در نتایج یك موتور جستجوی طبیعی و یا الگوریتمی است. بطور كلی وب گاه‌هایی كه بالاترین مكان و بیشترین تكرار در صفحه نتایج جستجو را دارند، بازدید كننده بیشتری از طریق موتورهای جستجو بدست می‌آوردند. «سئو» توانایی انواع جستجو را دارد، از جمله: جستجوی تصاویر، مكانی، جستجوی ویدئو، جستجوی علمی، جستجوی خبری و صنعت خاص در رأس موتور جستجو هستند.

به عنوان یك استراتژی بازاریابی اینترنتی، «سئو» به چگونگی كاركردن موتورهای جستجو و اینكه چه چیزی جستجو می‌شود، رسیدگی می‌كند و همین‌طور كلمات كلیدی تایپ شده و اینكه كدام یك از موتورهای جستجو توسط مخاطبان مورد توجه قرار می‌گیرد را مورد بررسی قرار می‌دهد. بهینه‌سازی وب سایت شامل توسعه مطالب موجود در خود سایت و اچ‌تی‌ام‌ال و برنامه‌نویسی مربوط به هر دو و همچنین ارتباط بین كلمات كلیدی و حذف موانع مربوط به فعالیتهای نمایه سازی در موتور  جستجو و ترویج یك سایت برای افزایش تعداد لینك دهنده و یا لینك‌های ورودی، از دیگر تاكتیك‌های جستجوگرها است. در كل «سئو» به معنی بهینه‌سازی موتور جستجو است.

 

از اواسط دهه ۱۹۹۰ میلادی كه نخستین موتورهای جستجو اقدام به فهرست كردن وب نخستین كردند، مدیران وب سایت‌ها و تولیدكنندگان محتوا، شروع به بهینه‌سازی سایت‌ها برای موتورهای جستجو نمودند. در ابتدا تمام كارهایی كه مدیران وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه به موتورهای مختلفی كه یك «عنكبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینك‌های صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندكس شدن بود. فرایند به این صورت است كه عنكبوت موتور جستجو، یك صفحه را دانلود و آنرا در سرور  موتور جستجو ذخیره می‌كند و یك برنامه دیگر موسوم به ایندكس كننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج می‌كند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژه‌های بخصوص، و تمام لینك‌های موجود در صفحه، كه سپس جهت خزش در زمانی دیگر، در دستور كار قرار می‌گیرد.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند كه این امر، فرصتی را برای هكرهای غیر مخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا كرد.

طبق نظر یك تحلیل گر صنعتی به نام دنی سالیوان عبارت بهینه‌سازی موتور جستجو احتمالاً در سال ۱۹۹۷ مورد استفاده قرار گرفت. در ۲ ماه می ۲۰۰۷، جیسون گمبرت تلاش كرد تا دفتر ثبت علائم تجاری آریزونا را متقاعد كند كه «سئو» فرایندی است شامل دستكاری واژگان كلیدی و نه یك سرویس بازاریابی و از این طریق واژه «سئو» را به عنوان علامت تجاری ثبت كند. وكیل بررسی كننده پرونده، استدلال نامنسجم وی را مبنی بر اینكه «وقتی «سئو» نمی‌تواند ثبت تجاری شود آن هم به دلیل اینكه به یك فرایند عمومی دستكاری واژگان كلیدی اطلاق می‌گردد، می‌تواند یك علامت خدماتی برای تأمین خدمات بازاریابی در حوزه كامپیوتر باشد».

 
یك نمونه از صفحه نتایج موتور جستجو

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های كلیدی، یا فایل ایندكس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتكا می‌كردند. متاتگ‌ها یك راهنمایی برای محتوای  هر صفحه فراهم می‌كنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندكس، كمتر قابل اطمینان بود زیرا انتخاب واژگان در یك متاتگ توسط وب سایتها، بالقوه می‌تواند یك نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدكنندگان محتوای شبكه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یك صفحه را دستكاری كردند تا  رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأكید بر عواملی مانند تراكم واژه كلیدی، كه بطور انحصاری تحت كنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستكاری رتبه‌بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به كاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند كه نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی كه نامربوط بوده و توسط مدیران شبكه بدون وجدان كاری و با استفاده از كلمات كلیدی متعدد پر شده‌اند. از آنجایی كه موفقیت و محبوبیت یك موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، كیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن كاربران به منابع جستجوی دیگر شود.  موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ كه در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستكاری را برای مدیران شبكه، سخت‌تر می‌سازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یك موتور جستجو موسوم به بك‌روب را توسعه دادند كه جهت ارزیابی برجستگی صفحات وب، به یك الگاریتم ریاضیاتی تكیه داشت. عددی كه توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»،  تابعی است از مقدار و قدرت لینك‌های ورودی. رتبه صفحه میزان یك صفحه معین را كه توسط یك كاربر كه بصورت تصادفی شبكه را جستجو می‌كند مورد دسترسی قرار گرفته، تخمین می‌زند و لینك‌های یك صفحه به صفحه دیگر را دنبال می‌كند. در واقع، این بدان معناست كه برخی لینك‌ها از سایر لینك‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری كردند. گوگل درمیان كاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب كرد كه طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینك) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های كلیدی، متاتگ‌ها، عنوان‌ها، لینك و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند كه از نوعی دستكاری كه در موتورهای جستجویی دیده می‌شود كه تنها به عوامل داخل صفحه توجه می‌كنند، اجتناب نماید. علی‌رغم اینكه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبكه سرانجام ابزارها و طرح‌های تولید لینك را جهت تحت تأثیر قرار دادن موتور جستجوی اینكتومی توسعه دادند، و این روش‌ها ثابت كردند كه به طریقی مشابه می‌توان رتبه  صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینك در حجم زیاد و وسیع متمركز هستند. بعضی از این طرح‌ها یا مزارع لینك، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینك‌ها می‌شوند.

تا سال ۲۰۰۴، موتورهای جستجو، طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه‌بندی خود جای داده بودند تا اثر دستكاری لینك‌ها را كاهش دهند. در ژوئن ۲۰۰۷، یك گزارشگر از نیویورك تایمز بنام سول هنسل گفت كه گوگل، رتبه‌بندی سایت‌ها را با استفاده از بیش ۲۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتم‌های رتبه‌بندی‌های خود را افشا نمی‌كنند. برخی از شاغلان در سئو روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند. ثبت اختراع‌های مربوط به موتورهای  جستجو می‌تواند اطلاعاتی را برای درك بهتر موتورهای جستجو فراهم نماید.

در سال ۲۰۰۵، شروع به شخصی‌سازی نتایج جستجو برای هر كاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای كاربرانی نمود كه وارد حساب كاربری خود شده‌اند. در سال ۲۰۰۸، بروس كلی گفت كه «رتبه‌بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار كرد كه بحث در مورد نحوه رتبه‌بندی یك وب سایت بی‌معنی است؛ زیرا رتبه یك وب سایت، بالقوه برای هر كاربر و هر جستجو می‌تواند متفاوت باشد.
در سال ۲۰۰۷، گوگل كمپینی به راه انداخت علیه لینك‌هایی كه در ازای پرداخت پول، رتبه صفحه را منتقل می‌كنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش كرد كه اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های نوفالو در لینك‌ها، اثر مدلسازی رتبه صفحه را كاهش دهد. مت كاتس یك مهندس نرم‌افزارشناخته شده در گوگل، اعلام كرد كه عنكبوت خزنده گوگل دیگر به طریق مشابه به لینك‌های دنبال نشده نمی‌پردازد تا تأمین كنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان سئو تكنیك‌های جایگزینی را توسعه دادند كه تگ‌های نوفالو شده را با جاوا اسكریپت مبهم جایگزین كرده و در نتیجه، مدلسازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است كه شامل استفاده از آی‌فریم، فلش، جاوا اسكریپت می‌شود.
در دسامبر ۲۰۰۹، گوگل اعلام كرد كه از سوابق جستجوی تمام كاربرانش جهت جمع‌آوری نتایج جستجو استفاده خواهد كرد.

در ۸ ژوئن ۲۰۱۰ از یك سیستم ایندكس گذاری جدید موسوم به گوگل كافئین رونمایی شد. گوگل كافئین تغییری بود در روش به روز شدن ایندكس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به كاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورم‌ها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری كه به گوگل، سیستم كافئین را معرفی كرد، معتقد است كه این سیستم جستجوهای شبكه را ۵۰ درصد نسبت به ایندكس پیشین بهبود می‌دهد.

سئو

سئو سایت

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وب سایت‌ها، ماه‌ها و یا حتی سالها روی بهینه‌سازی یك وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند. با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد كردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد كه وب سایت‌هایی را كه حاوی محتوای تكثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌كند. بطور تاریخی، وب سایت‌ها محتوا را از یكدیگر كپی كرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یك سیستم جدید پیاده‌سازی كرد كه سایتهایی را كه حاوی محتوای منحصر به فرد نیستند، جریمه می‌كند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی كرد كه هدف آن، جریمه كردن وب سایت‌هایی بود كه از روش‌های دستكاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌كردند.

در سپتامبر ۲۰۱۳، كمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی كرد؛ یك الگوریتم كه جهت بهبود پردازش زبان طبیعی گوگل و درك معنایی صفحات وب طراحی شد.

سئو سایت و بهینه سازی سایت در اصفهان

سئو سایت و بهینه سازی سایت

ارسال نظر برای این مطلب

کد امنیتی رفرش
اطلاعات کاربری
  • فراموشی رمز عبور؟
  • آمار سایت
  • کل مطالب : 434
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • آی پی امروز : 1
  • آی پی دیروز : 14
  • بازدید امروز : 130
  • باردید دیروز : 18
  • گوگل امروز : 0
  • گوگل دیروز : 0
  • بازدید هفته : 257
  • بازدید ماه : 299
  • بازدید سال : 12,450
  • بازدید کلی : 84,117
  • کدهای اختصاصی