گوگل، موتور جستجوی پیشرو در جهان، مقصدی مناسب برای کاربران برای اهداف مختلف است، خواه در جستجوی پاسخ به سوالات، جمع آوری اطلاعات یا خرید آنلاین باشد. جایگاهی که امروزه از آن برخوردار است به دلیل رویکرد نوآورانه و به روز رسانی منظم در الگوریتم های آن برای ارائه مرتبط ترین نتایج به کاربران است. به همین دلیل است که این رهبر جهانی موتورهای جستجو الگوریتم جستجوی خود را چندین هزار بار در سال به روز می کند و در مورد آن بسیار شفاف و صادق است. در اکثر موارد، به روز رسانی الگوریتم بسیار جزئی است و اغلب مورد توجه قرار نمی گیرد. با این حال، یک بار در ماه آبی، گوگل تغییرات قابل توجهی را ایجاد می کند که به بخش اساسی کار آن تبدیل می شود و برای مدت طولانی اختلالات قابل توجهی در استراتژی SEO ایجاد می کند. با هدف نهایی ارتقای تجربه کاربر، گوگل از انواع الگوریتم های مختلف از پاندا، پنگوئن، مرغ مگس خوار، موبایل گرفته تا Rank Brain، Medic، Bert و SMITH استفاده می کند. درک این نکات فنی پیچیده برای افرادی که دارای پیشینه غیر فنی هستند می تواند دشوار باشد. از این رو، در اینجا ما یک نسخه ساده از این مفاهیم فنی را به اشتراک می گذاریم تا بتوانید آنها را به راحتی و به سرعت درک کنید.
در اوایل سال 2011، گوگل بهروزرسانی پاندا را راهاندازی کرد، یک الگوریتم نتیجه جستجو که به فیلتر کردن وبسایتهایی با محتوای نامربوط و با کیفیت کمک میکند. با این راهاندازی، گوگل سری الگوریتمهای خود را آغاز کرد که بر کنترلهای کیفیت تمرکز میکنند و به کنترل آن کمک میکنند.
Google Panda SERP ها را بهبود می بخشد زیرا تمام وب سایت ها و پورتال هایی که از محتوای اسپم بالقوه تشکیل شده اند را اسکن می کند و به بالا بردن وب سایت های مرتبط با سطح بالا کمک می کند.
الگوریتم پنگوئن
بهروزرسانی Google Penguin در 24 آوریل 2012 راهاندازی شد که با لینکهای ورودی یک وبسایت سروکار دارد و تنها با هدف کاهش رتبه وبسایتهایی که به دستورالعملهای وبمستر Google پایبند نیستند، کار میکند.
در آن زمان واقعاً برای Google نیاز بود تا از SERP گوگل در برابر سایتهای محتوای بی کیفیت محافظت کند. از طریق تکنیکهای ایجاد پیوند کلاه سیاه، نتایج جستجو و رتبهبندی دستکاری شده را افزایش داده بود.
از این رو الگوریتم پنگوئن به عنوان راه حلی برای حل این مشکل عملیاتی به وجود آمد. هدف اصلی این بهروزرسانی، به دست آوردن کنترل بر فرآیند جستجو و کاهش بهینه اثربخشی تکنیکهای اسپم کلاه سیاه بود.
الگوریتم مرغ مگس خوار
الگوریتم مرغ مگس خوار که در 22 آگوست 2013 راه اندازی شد، با هدف شناسایی و فیلتر کردن وب سایت هایی با محتوای کم کیفیت و پر کردن کلمات کلیدی غیر ضروری توسعه یافت. این الگوریتم به گوگل کمک میکند تا نتایج جستجوی خود را بدیههسازی کند و نتایج مرتبط و با کیفیت خوبی را ارائه دهد.
الگوریتم موبایل
الگوریتم موبایل در 21 آوریل 2015 توسط گوگل راه اندازی شد. از زمان شروع آن، این به روز رسانی تغییری در استفاده مشتریان از دسکتاپ به نسخه موبایل وب سایت ایجاد کرده است و همچنین تجربه وب آنها را بهبود بخشیده است.
این نسخه به طور قابل توجهی شهرت یافته است و در زمان حاضر، گوگل همه وب سایت ها را بر اساس سرعت و ویژگی کاربر پسند موبایلی آنها رتبه بندی می کند.
الگوریتم رتبه بندی مغز
گوگل در 26 اکتبر 2015 الگوریتم Rank Brain را با هدف ارتقای SERP خود از طریق فیلتر کردن وب سایت هایی با محتوای کم عمق و طراحی ضعیف راه اندازی کرد که همچنان در جستجوی بالا قرار دارند.
این بخشی از الگوریتم مرغ مگس خوار گوگل است و برای بداهه سازی SERP خود و ارائه وب سایت های با کیفیت خوب و مطابق با معیارهای جستجوی کاربر کار می کند.
الگوریتم پزشکی
الگوریتم Medic توسط موتور جستجو در 4 مه 2018 راه اندازی شد. در حالی که متخصصان مختلف سئو از آن به عنوان “به روز رسانی هدف پرس و جو” یاد می کنند، نمایندگان گوگل نکاتی را در مورد این نسخه با استفاده از سیگنال های EAT (تخصص، اختیار، اعتماد) ارائه می کنند. سند دستورالعمل های ارزیابی کیفیت.
این بهروزرسانی تأثیر مستقیمی بر وبسایتهایی دارد، بهویژه وبسایتهایی که بر سلامت، امور مالی، حقوق و آموزش تمرکز دارند و محتوای حساسی دارند و توانایی اجرای تصمیمهای تغییر دهنده زندگی را دارند. از طریق این نسخه، گوگل قصد دارد به طور کامل به سؤالات کاربر پاسخ دهد و همچنین قدرت انعطاف پذیری برای حل آن سؤالات را صادقانه و بی طرفانه فراهم کند.
الگوریتم BERT
الگوریتم BERT در 22 اکتبر 2019 برای کاهش ارزش رتبه وب سایت هایی که محتوای با کیفیت پایین دارند معرفی شد.
از فناوری پردازش زبان طبیعی برای بهبود کیفیت عبارتهای جستجو، تفسیر متن، شناسایی موجودیتها و روابط بین موجودیتها و ارائه نتایج جستجو مطابق با نیازهای کاربر استفاده میکند.
به روز رسانی الگوریتم هسته گسترده
الگوریتم Core گسترده یک نسخه بازسازی شده از الگوریتم اصلی گوگل است و برای درک بهتر سوالات جستجوی کاربر و وب سایت ها استفاده می شود. این بهروزرسانی به Google کمک میکند تا بهطور دقیق سؤالات جستجو را مطابقت دهد و نتایج جستجو را بر اساس آن بداههسازی کند.
این نسخه که بهروزرسانی دسامبر 2020 نامگذاری شده است، سومین نسخه پس از بهروزرسانی ژانویه و مه 2020 است و بر کاهش رتبه وبسایتهایی با محتوای کم کیفیت و بک لینکهای ضعیف تمرکز دارد. الگوریتم هسته گسترده، روشی را تغییر می دهد که در آن فاکتورهای رتبه بندی خاص سنجیده می شوند و با یکدیگر تعامل دارند و با هدف ارائه کیفیت برتر و نتایج مرتبط برای پرس و جوها و جستجوهای کاربر کار می کند.
الگوریتم اسمیت (الگوریتم SEO 2021)
گوگل اخیرا یک مقاله تحقیقاتی منتشر کرده است که در آن به اضافه شدن اخیر به خانواده الگوریتم خود، SMITH که مخفف رمزگذار سلسله مراتبی مبتنی بر ترانسفورماتور چند عمقی سیامی ( SMITH ) است، اشاره کرده است.
این به روز رسانی به طور خاص برای درک قسمت های داخل سند طولانی ایجاد شده است. در حالی که مدل عملیاتی SMITH تا حدی شبیه مدل BERT است، گوگل ادعا میکند که در درک پرسشهای طولانی و اسکن اسناد دقیق از مدل دوم بهتر عمل میکند.
آیا گوگل از الگوریتم SMITH استفاده می کند؟
گوگل هرگز به طور مستقیم در مورد نوع الگوریتم هایی که استفاده می کند فاش نکرده است.
در حالی که هیچ علاقهمندی به فناوری نمیتواند پاسخ روشنی به این سؤال متداول ارائه دهد – اگر Google از الگوریتم SMITH استفاده میکند. محققان مختلف بیان می کنند که الگوریتم SMITH از BERTupdate بهتر عمل می کند. کارشناسان همچنین به اشتراک می گذارند که موتور جستجو از مدل های قبل از آموزش (الگوریتم آموزش داده شده بر روی یک مجموعه داده) استفاده می کند که مشابه BERT همراه با بسیاری از الگوریتم های دیگر است. با این حال، سنجش اینکه آیا گوگل از SMITH یا یک الگوریتم به روز شده استفاده می کند یا خیر دشوار است.
امیدواریم این قطعه بتواند در مورد الگوریتمهای مختلف گوگل و کارکرد آنها شفافسازی کند و بتوانیم سوالات مرتبط با سئو و رتبهبندی شما را حل کنیم!
هیچ دیدگاهی نوشته نشده است.