هكذا يمكن لأنظمة الذكاء الاصطناعي التلاعب بنتائج البحث على “غوغل”
خلال العام الماضي، قطعت أنظمة الذكاء الاصطناعي خطوات كبيرة في قدرتها على توليد نص، والكتابة في كل شيء؛ من كلمات الأغاني إلى القصص القصيرة. وبينما حذر خبراء من إمكانية استخدام هذه الأدوات لنشر معلومات سياسية خاطئة، يتخوّف من هدف آخر لاستخدامها يمكن أن يكون أكثر ربحية: التلاعب في “غوغل”.
يشرح موقع “ذا فيردج” الأميركي المتخصص في صحافة التكنولوجيا، في تقرير، أنّه فضلاً عن استخدامها في إنشاء أخبار مزيفة، يمكن لأدوات الذكاء الاصطناعي نشر مدونات غير محدودة، وصفحات من مواقع إلكترونية، ورسائل إلكترونية تسويقية عشوائية “spam”.
وفي هذه الحالات، عندما يبحث شخص ما على معلومة موثقة، سيظهر محتوى رخيص الإنتاج، ومحشو بالكامل بالكلمات الرئيسية ذات الصلة، وسيصعب بالتالي على محرك البحث تمييزه عن المحتوى الحقيقي والعلمي.
في هذا الرابط مثلاً، الذي يورده “ذا فيردج” في تقريره، يظهر مقال مدوّن يبدو للوهلة الأولى طبيعياً، وهو يتناول موضوع فلاتر “إنستغرام”، لكن عند التدقيق أكثر يمكن الاكتشاف بأنّ كاتب المقال المدوّن واسمه باري تايري، ليس إنساناً حقيقياً، وتم إنشاء وجهه بواسطة نموذج للذكاء الاصطناعي يسمى “StyleGAN”، وكل محتوى المقال مكتوب بواسطة أدوات الذكاء الاصطناعي.
ويشير الموقع إلى أنّ باقي المدّونة مليء بالمشاركات المشابهة لمقال تايري، والتي تغطي مواضيع مثل “كيفية كتابة عناوين خادعة” و”لماذا تعتبر استراتيجية المحتوى مهمة؟”، غير أنّ كل مقال منشور تم إنشاؤه بواسطة الذكاء الاصطناعي، وصولاً إلى صور بروفايلات المؤلفين.
ولكتابة المقالات المنشورات على المدونة، استخدمت شركة التسويق “Fractl” أداة مفتوحة المصدر باسم “Grover”، والتي أعدها معهد “ألين” للذكاء الاصطناعي.
ويمكن التنبؤ باستخدام هذه الميزة لجني الأرباح بإنشاء مقالات ومدونات تخدع محرك “غوغل”، إذ لطالما لعب المحرك لعبة القط والفأر مع الفاعلين “عديمي الضمير” الذين استغلّوا طرقاً غير مشروعة، لجذب أكبر عدد من الزيارات، خلال عمليات البحث بواسطة المحرك.
وقد تنتج حالة “تسونامي” من الرسائل الاقتحامية عند البحث، أو الرسائل ذات المحتوى الرديء، من قبل منتجي النصوص غير الدقيقة أو “الرخيصة” كما يصنّفها موقع “ذا فيردج”، بواسطة أدوات الذكاء الاصطناعي.