بهینهسازی موتور جستجو، (به انگلیسی: Search engine optimization)، به اختصار سئو (به انگلیسی: SEO)، یك روند مناسب برای بهبود دید یك وب سایت یا یك صفحه وب در نتایج یك موتور جستجوی طبیعی و یا الگوریتمی است. بطور كلی وب گاههایی كه بالاترین مكان و بیشترین تكرار در صفحه نتایج جستجو را دارند، بازدید كننده بیشتری از طریق موتورهای جستجو بدست میآوردند. «سئو» توانایی انواع جستجو را دارد، از جمله: جستجوی تصاویر، مكانی، جستجوی ویدئو، جستجوی علمی، جستجوی خبری و صنعت خاص در رأس موتور جستجو هستند.
به عنوان یك استراتژی بازاریابی اینترنتی، «سئو» به چگونگی كاركردن موتورهای جستجو و اینكه چه چیزی جستجو میشود، رسیدگی میكند و همینطور كلمات كلیدی تایپ شده و اینكه كدام یك از موتورهای جستجو توسط مخاطبان مورد توجه قرار میگیرد را مورد بررسی قرار میدهد. بهینهسازی وب سایت شامل توسعه مطالب موجود در خود سایت و اچتیامال و برنامهنویسی مربوط به هر دو و همچنین ارتباط بین كلمات كلیدی و حذف موانع مربوط به فعالیتهای نمایه سازی در موتور جستجو و ترویج یك سایت برای افزایش تعداد لینك دهنده و یا لینكهای ورودی، از دیگر تاكتیكهای جستجوگرها است. در كل «سئو» به معنی بهینهسازی موتور جستجو است.
از اواسط دهه ۱۹۹۰ میلادی كه نخستین موتورهای جستجو اقدام به فهرست كردن وب نخستین كردند، مدیران وب سایتها و تولیدكنندگان محتوا، شروع به بهینهسازی سایتها برای موتورهای جستجو نمودند. در ابتدا تمام كارهایی كه مدیران وب سایتها باید انجام میدادند، ارسال آدرس صفحه به موتورهای مختلفی كه یك «عنكبوت» جهت «خزش» آن صفحه میفرستادند، استخراج لینكهای صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندكس شدن بود. فرایند به این صورت است كه عنكبوت موتور جستجو، یك صفحه را دانلود و آنرا در سرور موتور جستجو ذخیره میكند و یك برنامه دیگر موسوم به ایندكس كننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج میكند؛ اطلاعاتی از قبیل واژههای موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژههای بخصوص، و تمام لینكهای موجود در صفحه، كه سپس جهت خزش در زمانی دیگر، در دستور كار قرار میگیرد.
مدیران سایتها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند كه این امر، فرصتی را برای هكرهای غیر مخرب و مخرب شاغل در بخش بهینهسازی موتور جستجو مهیا كرد.
طبق نظر یك تحلیل گر صنعتی به نام دنی سالیوان عبارت بهینهسازی موتور جستجو احتمالاً در سال ۱۹۹۷ مورد استفاده قرار گرفت. در ۲ ماه می ۲۰۰۷، جیسون گمبرت تلاش كرد تا دفتر ثبت علائم تجاری آریزونا را متقاعد كند كه «سئو» فرایندی است شامل دستكاری واژگان كلیدی و نه یك سرویس بازاریابی و از این طریق واژه «سئو» را به عنوان علامت تجاری ثبت كند. وكیل بررسی كننده پرونده، استدلال نامنسجم وی را مبنی بر اینكه «وقتی «سئو» نمیتواند ثبت تجاری شود آن هم به دلیل اینكه به یك فرایند عمومی دستكاری واژگان كلیدی اطلاق میگردد، میتواند یك علامت خدماتی برای تأمین خدمات بازاریابی در حوزه كامپیوتر باشد».
نسخههای اولیه الگوریتمهای جستجو به اطلاعات فراهم شده توسط مدیران وب سایتها نظیر متا تگ واژههای كلیدی، یا فایل ایندكس موتورهای جستجو مانند ایالآیوب اعتماد و اتكا میكردند. متاتگها یك راهنمایی برای محتوای هر صفحه فراهم میكنند. با اینحال، استفاده از دادههای متا در صفحات ایندكس، كمتر قابل اطمینان بود زیرا انتخاب واژگان در یك متاتگ توسط وب سایتها، بالقوه میتواند یك نمایش غیر دقیق از محتوای واقعی وب سایت باشد. دادههای نادرست، ناقص و ناسازگار در متا تگها میتواند موجب رتبهبندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدكنندگان محتوای شبكه همچنین تعدادی از ویژگیهای منبع اچتیامال یك صفحه را دستكاری كردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.
با تأكید بر عواملی مانند تراكم واژه كلیدی، كه بطور انحصاری تحت كنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستكاری رتبهبندی رنج میبردند. به منظور ارائه نتایج بهتر به كاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند كه نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی كه نامربوط بوده و توسط مدیران شبكه بدون وجدان كاری و با استفاده از كلمات كلیدی متعدد پر شدهاند. از آنجایی كه موفقیت و محبوبیت یك موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص میشود، كیفیت پایین یا نتایج نامرتبط میتواند سبب سوق دادن كاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبهبندی پیچیدهتر به این عمل پاسخ دادند؛ كه در آن عوامل بیشتری مورد توجه قرار میگیرند و دستكاری را برای مدیران شبكه، سختتر میسازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یك موتور جستجو موسوم به بكروب را توسعه دادند كه جهت ارزیابی برجستگی صفحات وب، به یك الگاریتم ریاضیاتی تكیه داشت. عددی كه توسط الگوریتم محاسبه میشد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینكهای ورودی. رتبه صفحه میزان یك صفحه معین را كه توسط یك كاربر كه بصورت تصادفی شبكه را جستجو میكند مورد دسترسی قرار گرفته، تخمین میزند و لینكهای یك صفحه به صفحه دیگر را دنبال میكند. در واقع، این بدان معناست كه برخی لینكها از سایر لینكها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش میدهد.
پیچ و برین، گوگل را در سال ۱۹۹۸ بنیانگذاری كردند. گوگل درمیان كاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب كرد كه طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینك) نیز همانند عوامل داخل صفحه (فراوانی واژههای كلیدی، متاتگها، عنوانها، لینك و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند كه از نوعی دستكاری كه در موتورهای جستجویی دیده میشود كه تنها به عوامل داخل صفحه توجه میكنند، اجتناب نماید. علیرغم اینكه به بازی گرفتن رتبه صفحه سختتر بود، مدیران شبكه سرانجام ابزارها و طرحهای تولید لینك را جهت تحت تأثیر قرار دادن موتور جستجوی اینكتومی توسعه دادند، و این روشها ثابت كردند كه به طریقی مشابه میتوان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایتها روی تبادل، خرید و فروش لینك در حجم زیاد و وسیع متمركز هستند. بعضی از این طرحها یا مزارع لینك، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینكها میشوند.
تا سال ۲۰۰۴، موتورهای جستجو، طیف گستردهای از عوامل نامعلوم را در الگوریتمهای رتبهبندی خود جای داده بودند تا اثر دستكاری لینكها را كاهش دهند. در ژوئن ۲۰۰۷، یك گزارشگر از نیویورك تایمز بنام سول هنسل گفت كه گوگل، رتبهبندی سایتها را با استفاده از بیش ۲۰۰ علامت مختلف انجام میدهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتمهای رتبهبندیهای خود را افشا نمیكنند. برخی از شاغلان در سئو روشهای مختلفی را جهت بهینهسازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نمودهاند. ثبت اختراعهای مربوط به موتورهای جستجو میتواند اطلاعاتی را برای درك بهتر موتورهای جستجو فراهم نماید.
در سال ۲۰۰۵، شروع به شخصیسازی نتایج جستجو برای هر كاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای كاربرانی نمود كه وارد حساب كاربری خود شدهاند. در سال ۲۰۰۸، بروس كلی گفت كه «رتبهبندی مرده است» زیرا جستجوی شخصی شده سبب آن میگردد. او احضار كرد كه بحث در مورد نحوه رتبهبندی یك وب سایت بیمعنی است؛ زیرا رتبه یك وب سایت، بالقوه برای هر كاربر و هر جستجو میتواند متفاوت باشد.
در سال ۲۰۰۷، گوگل كمپینی به راه انداخت علیه لینكهایی كه در ازای پرداخت پول، رتبه صفحه را منتقل میكنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش كرد كه اقداماتی در پیش گرفته تا با استفاده از ویژگیهای نوفالو در لینكها، اثر مدلسازی رتبه صفحه را كاهش دهد. مت كاتس یك مهندس نرمافزارشناخته شده در گوگل، اعلام كرد كه عنكبوت خزنده گوگل دیگر به طریق مشابه به لینكهای دنبال نشده نمیپردازد تا تأمین كنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه میشود. به منظور اجتناب از این امر، مهندسان سئو تكنیكهای جایگزینی را توسعه دادند كه تگهای نوفالو شده را با جاوا اسكریپت مبهم جایگزین كرده و در نتیجه، مدلسازی رتبه صفحه را میسر میسازد. بعلاوه چند راه حل پیشنهاد شده است كه شامل استفاده از آیفریم، فلش، جاوا اسكریپت میشود.
در دسامبر ۲۰۰۹، گوگل اعلام كرد كه از سوابق جستجوی تمام كاربرانش جهت جمعآوری نتایج جستجو استفاده خواهد كرد.
در ۸ ژوئن ۲۰۱۰ از یك سیستم ایندكس گذاری جدید موسوم به گوگل كافئین رونمایی شد. گوگل كافئین تغییری بود در روش به روز شدن ایندكس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به كاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورمها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرمافزاری كه به گوگل، سیستم كافئین را معرفی كرد، معتقد است كه این سیستم جستجوهای شبكه را ۵۰ درصد نسبت به ایندكس پیشین بهبود میدهد.
گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور بههنگامتر و مرتبط نمودن جستجوها ارائه شد. بهطور تاریخی، ادمینهای وب سایتها، ماهها و یا حتی سالها روی بهینهسازی یك وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشتهاند. با گسترش عمومیت وب سایتها و وبلاگهای رسانههای اجتماعی، موتورهای جستجوی پیشرفته در الگوریتمهای خود تغییراتی ایجاد كردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبهبندی شوند.
در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد كه وب سایتهایی را كه حاوی محتوای تكثیر شده از وب سایتها و منابع دیگر باشند، جریمه میكند. بطور تاریخی، وب سایتها محتوا را از یكدیگر كپی كرده و از آن در رتبهبندی موتورهای جستجو بهرهمند شدهاند. با این حال، گوگل یك سیستم جدید پیادهسازی كرد كه سایتهایی را كه حاوی محتوای منحصر به فرد نیستند، جریمه میكند.
در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی كرد كه هدف آن، جریمه كردن وب سایتهایی بود كه از روشهای دستكاری جهت بهبود رتبه خود در موتورهای جستجو استفاده میكردند.
در سپتامبر ۲۰۱۳، كمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی كرد؛ یك الگوریتم كه جهت بهبود پردازش زبان طبیعی گوگل و درك معنایی صفحات وب طراحی شد.