پس از انتشار نتایج عجیب و غریب، گوگل با مرورهای جدید هوش مصنوعی خود به مشکلات رسیدگی می کند

اکنون، در پاسخ به نگر،‌ها، لیز رید، معاون جستجوی گوگل، اذعان کرد که مرورهای کلی هوش مصنوعی موتور جستجو گاهی اوقات «عجیب، نادرست یا بی فایده” نتایج.

در یک پست وبلاگ اخیر، او به این مسائل پرداخت و اعلام کرد که گوگل تدابیری را برای اطمینان از اینکه این ویژگی نتایج دقیق‌تری ارائه می‌کند که در تاریخچه میم‌ها باقی نمی‌ماند، اعمال کرده است.
رید تصریح کرد که برخی از پاسخ‌های افراطی مروری بر هوش مصنوعی، مانند پیشنهاد بی‌خطر بودن رها ، سگ‌ها در اتومبیل، ساختگی هستند. در حالی که دیگران، مانند اسکرین شات ویروسی که پاسخ به “چند سنگ باید بخورم؟” او تصریح کرد که گوگل این پاسخ را به این دلیل ایجاد کرده است که یک وب سایت محتوای طنزآمیز در مورد این موضوع منتشر کرده است. او توضیح داد که چرا الگوریتم هوش مصنوعی این شرکت به وب سایت پیوند داده شده است:

قبل از انتشار این اسکرین شات ها، عملاً هیچ ، این سوال را از گوگل نپرسید. همچنین محتوای وب زیادی وجود ندارد که به طور جدی به این سوال فکر کند. این همان چیزی است که اغلب به آن «خلأ داده» یا «شکاف اطلاعاتی» می گویند، که در آن مقدار محدودی از محتوای با کیفیت بالا در مورد یک موضوع وجود دارد. با این حال، در این مورد، مطالب طنزی در مورد این موضوع وجود دارد … که اتفاقاً در وب سایت یک ارائه دهنده نرم افزار زمین شناسی نیز بازنشر شده است. بنابراین هنگامی که شخصی آن سوال را در جستجو مطرح کرد، یک نمای کلی هوش مصنوعی ظاهر شد که صادقانه به یکی از تنها وب‌سایت‌هایی که این سؤال را پاسخ می‌داد پیوند داشت.

وی همچنین افزود:

هنگامی که مرورهای هوش مصنوعی اشتباه می کنند، معمولاً به دلایل دیگری است: تعبیر نادرست پرس و جوها، تفسیر نادرست زبان در وب، یا نداشتن اطلاعات بسیار عالی در دسترس. (اینها چالش هایی هستند که با سایر ویژگی های جستجو نیز پیش می آیند.)

به علاوه، معاون گوگل با استناد به محتوای یک فروم، موردی را تأیید کرد که در آن AI Overview استفاده از ،ب را برای ،باندن پنیر به پیتزا پیشنهاد کرد. در حالی که انجمن ها می توانند اطلاعات دست اول واقعی را ارائه دهند، ممکن است نکات نه چندان مفیدی را نیز ارائه دهند، همانطور که احتمالاً خودتان متوجه شده اید.

رید همچنین اشاره کرد که گوگل قبل از راه اندازی این ویژگی را به طور گسترده آزمایش کرده است، اما “هیچ چیز مانند این نیست که میلیون ها نفر از این ویژگی با جستجوهای جدید استفاده کنند

گوگل با نگاه ، به نمونه هایی از پاسخ های خود در چند هفته گذشته متوجه شد که پاسخ های هوش مصنوعی آن کجا اشتباه بوده است. بر اساس آنچه که پیدا کرد، شرکت سپس پادمان هایی را اضافه کرد. این چیزی است که غول فناوری انجام داد:

  • گوگل توانایی خود را برای شناسایی پرس و جوهایی که منطقی نیستند و نباید باعث ایجاد نمای کلی هوش مصنوعی شوند، بهبود بخشید. علاوه بر این، این شرکت هوش مصنوعی خود را برای تشخیص بهتر محتوای طنز و طنز تنظیم کرد.
  • این شرکت سیستم های خود را برای کاهش اتکا به محتوای تولید شده توسط کاربر در پاسخ هایی که ممکن است توصیه های گمراه کننده ارائه دهد، به روز کرد.
  • گوگل محدودیت‌هایی را برای محدود ، راه‌اندازی پرس‌و‌جوهایی که در مواردی که بررسی‌های AI به اندازه کافی مفید نبودند، اعمال کرد.
  • برای موضوعات خبری فوری، گوگل از نمایش اجمالی AI برای اولویت دادن به تازگی و دقت خودداری می کند. همچنین، این غول فناوری اصلاحاتی را برای افزایش تضمین کیفیت و دقت برای سوالات مرتبط با سلامتی ارائه کرده است.

منبع: https://www.p،nearena.com/news/google-addresses-issues-with-its-new-ai-overviews-after-bizarre-results-went-viral_id158917