loading...

blacknight

سخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای  هر صفحه فراهم می‌کنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد.…

صفحه نتایج موتور جستجو

سخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای  هر صفحه فراهم می‌کنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یک صفحه را دستکاری کردند تا  رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند. از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود.  موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»،  تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

پیچ و برین، گوگل را در سال 1998 بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید. علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه  صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

تا سال 2004، موتورهای جستجو، طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه‌بندی خود جای داده بودند تا اثر دستکاری لینک‌ها را کاهش دهند. در ژوئن 2007، یک گزارشگر از نیویورک تایمز بنام سول هنسل گفت که گوگل، رتبه‌بندی سایت‌ها را با استفاده از بیش 200 علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتم‌های رتبه‌بندی‌های خود را افشا نمی‌کنند. برخی از شاغلان در سئو روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند. ثبت اختراع‌های مربوط به موتورهای  جستجو می‌تواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم نماید.

در سال 2005، شروع به شخصی‌سازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شده‌اند. در سال 2008، بروس کلی گفت که «رتبه‌بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار کرد که بحث در مورد نحوه رتبه‌بندی یک وب سایت بی‌معنی است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند متفاوت باشد.
در سال 2007، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در 15 ژوئن 2009، گوگل فاش کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های نوفالو در لینک‌ها، اثر مدلسازی رتبه صفحه را کاهش دهد. مت کاتس یک مهندس نرم‌افزارشناخته شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان سئو تکنیک‌های جایگزینی را توسعه دادند که تگ‌های نوفالو شده را با جاوا اسکریپت مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از آی‌فریم، فلش، جاوا اسکریپت می‌شود.
در دسامبر 2009، گوگل اعلام کرد که از سوابق جستجوی تمام کاربرانش جهت جمع‌آوری نتایج جستجو استفاده خواهد کرد.

در 8 ژوئن 2010 از یک سیستم ایندکس گذاری جدید موسوم به گوگل کافئین رونمایی شد. گوگل کافئین تغییری بود در روش به روز شدن ایندکس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به کاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورم‌ها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری که به گوگل، سیستم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را 50 درصد نسبت به ایندکس پیشین بهبود می‌دهد.

سئو

سئو سایت

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال 2010 در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وب سایت‌ها، ماه‌ها و یا حتی سالها روی بهینه‌سازی یک وب سایت و ارتقای رتبه? جستجوی آن زمان گذاشته‌اند. با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه 2011، از آپدیت پاندا خبر داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌کند. بطور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه می‌کند.

در آوریل 2012، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر 2013، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.

سئو سایت و بهینه سازی سایت در اصفهان

سئو سایت و بهینه سازی سایت+

نظرات () تاریخ : چهارشنبه 16 فروردين 1396 زمان : 10:56 بازدید : 16 نویسنده : blacknight
ارسال نظر برای این مطلب

نام
ایمیل (منتشر نمی‌شود) (لازم)
وبسایت
:) :( ;) :D ;)) :X :? :P :* =(( :O @};- :B /:) :S
نظر خصوصی
مشخصات شما ذخیره شود ؟ [حذف مشخصات] [شکلک ها]
کد امنیتیرفرش کد امنیتی

تبلیغات
Rozblog.com رز بلاگ - متفاوت ترين سرويس سایت ساز
اطلاعات کاربری
نام کاربری :
رمز عبور :
  • فراموشی رمز عبور؟
  • آمار سایت
  • کل مطالب : 290
  • کل نظرات : 0
  • افراد آنلاین : 1
  • تعداد اعضا : 0
  • آی پی امروز : 14
  • آی پی دیروز : 22
  • بازدید امروز : 88
  • باردید دیروز : 38
  • گوگل امروز : 0
  • گوگل دیروز : 5
  • بازدید هفته : 249
  • بازدید ماه : 164
  • بازدید سال : 10,702
  • بازدید کلی : 17,225
  • کدهای اختصاصی

    ابزار وبلاگ