واعترفت ليز ريد، رئيسة قسم بحث جوجل، بأن محرك بحث الشركة قدم “نظرات عامة غريبة أو غير دقيقة أو غير مفيدة حول الذكاء الاصطناعي” للجميع في الولايات المتحدة. نشر المشرف شرحًا لإجابات Google المختلفة جدًا التي تم إنشاؤها بواسطة الذكاء الاصطناعي مدونةوأعلنت أيضًا أن الشركة نفذت إجراءات وقائية لمساعدة الميزة الجديدة على تقديم نتائج أكثر دقة وأقل استحقاقًا للاستدعاء.
دافع ريد عن جوجل، مشيرًا إلى أن بعضًا من أسوأ الردود العامة على الذكاء الاصطناعي، مثل الادعاءات بأن ترك الكلاب آمنًا في السيارات، هي ردود زائفة. “كم عدد الصخور التي يجب أن آكلها؟” وأضاف أن لقطة الشاشة المنتشرة التي تظهر الإجابة صحيحة، لكن جوجل توصلت إلى الرد لأن أحد المواقع نشر محتوى ساخرًا يتناول الموضوع. وأوضح: “قبل أن تنتشر لقطات الشاشة هذه، لم يسأل أحد عمليًا Google هذا السؤال”، لذلك تم ربط الذكاء الاصطناعي الخاص بالشركة بهذا الموقع.
وأكد نائب رئيس جوجل أن نظرة عامة على الذكاء الاصطناعي اقترحت استخدام الغراء لجعل الجبن يلتصق بالبيتزا، بناءً على محتوى مأخوذ من المنتدى. وقال إن المنتديات توفر عادة “معلومات حقيقية ومباشرة”، لكنها يمكن أن تؤدي إلى “نصائح أقل فائدة”. لم يذكر المشرف الإجابات العامة الفيروسية الأخرى المتعلقة بالذكاء الاصطناعي، ولكن واشنطن بوست وأخبرت التكنولوجيا المستخدمين أن باراك أوباما مسلم وأن الناس يجب أن يشربوا الكثير من البول لتمرير حصوات الكلى.
اختبر ريد الميزة على نطاق واسع قبل إطلاقها، ولكن “لا يوجد شيء يضاهي ملايين الأشخاص الذين يستخدمون الميزة في العديد من عمليات البحث الجديدة”. وبالنظر إلى أمثلة استجاباتها على مدار الأسبوعين الماضيين، فمن الواضح أنها تمكنت من تحديد الأنماط التي لا تقوم فيها تقنية الذكاء الاصطناعي الخاصة بها بتصحيح الأمور. لقد قامت ببناء ضمانات بناءً على ملاحظاتها من خلال تكييف الذكاء الاصطناعي الخاص بها لاكتشاف المحتوى الفكاهي والساخر بشكل أفضل. تم تحديث إعداداته لتقييد إدراج الاستجابات التي ينشئها المستخدم في النظرات العامة مثل وسائل التواصل الاجتماعي ومشاركات المنتديات. بالإضافة إلى ذلك، “أضافت عناصر تحكم في التشغيل للأسئلة التي لم تكن فيها النظرات العامة للذكاء الاصطناعي مفيدة” وتوقفت عن عرض الإجابات التي تم إنشاؤها بواسطة الذكاء الاصطناعي لبعض المواضيع الصحية.