Home الاخبار المهمه وجدت شركة OpenAI أن الحملات الدعائية الروسية والصينية استخدمت تقنيتها

وجدت شركة OpenAI أن الحملات الدعائية الروسية والصينية استخدمت تقنيتها

0
294

سان فرانسيسكو – قالت شركة OpenAI، الشركة المصنعة لـ ChatGBT، يوم الخميس إنها اتهمت مجموعات في روسيا والصين وإيران وإسرائيل بمحاولة التأثير على الخطاب السياسي في جميع أنحاء العالم باستخدام تقنيتها، مما سلط الضوء على المخاوف من أن إنشاء الذكاء الاصطناعي يسهل الدعاية السرية لـ الجهات الفاعلة في الدولة. الحملات الانتخابية مع اقتراب موعد الانتخابات الرئاسية 2024.

وقامت شركة OpenAI بحذف الحسابات المرتبطة بالأنشطة الدعائية المعروفة في روسيا والصين وإيران؛ وكالة الحملة السياسية الإسرائيلية؛ مجموعة غير معروفة سابقًا ظهرت في روسيا، أطلق عليها الباحثون في المعهد اسم “قواعد اللغة السيئة”. تستخدم الفرق تقنية OpenAI لكتابة المنشورات وترجمتها إلى لغات مختلفة وتطوير البرامج للنشر تلقائيًا على وسائل التواصل الاجتماعي.

ولم تتمكن أي من هذه المجموعات من اكتساب قدر كبير من الاهتمام؛ وصلت حسابات وسائل التواصل الاجتماعي المرتبطة بها إلى بعض المستخدمين قال بن نيمو، المحلل الرئيسي في مجموعة الاستخبارات والتحقيقات في OpenAI، إن هناك عددًا قليلاً من المتابعين. ومع ذلك، يُظهر تقرير OpenAI أن الناشطين الذين نشطوا على وسائل التواصل الاجتماعي لسنوات يستخدمون تقنية الذكاء الاصطناعي لتعزيز حملاتهم.

وقال نيمو، الذي عمل سابقًا في عمليات التتبع الفوقي للمؤثرين، في مؤتمر صحفي: “لقد رأيناهم ينتجون نصًا بحجم أكبر وأخطاء أقل مما تديره هذه العمليات تقليديًا”. وقال نيمو إن مجموعات أخرى قد تستخدم أدوات OpenAI دون علم الشركة.

“هذا ليس وقت الرضا عن النفس. وقال: “يظهر التاريخ أن أنشطة المؤثرين التي لم تصل إلى أي مكان لسنوات يمكن أن تنفجر فجأة إذا لم يبحث عنها أحد”.

استخدمت الحكومات والأحزاب السياسية والجماعات الناشطة وسائل التواصل الاجتماعي للتأثير على السياسة لسنوات. بعد المخاوف بشأن النفوذ الروسي في الانتخابات الرئاسية لعام 2016، بدأت منصات وسائل التواصل الاجتماعي في إلقاء نظرة فاحصة على كيفية استخدام منصاتها للتأثير على الناخبين. تمنع الشركات بشكل عام الحكومات والجماعات السياسية من التستر على الجهود المنسقة للتأثير على المستخدمين، وتطلب من الإعلانات السياسية الكشف عن هوية من دفع ثمنها.

READ  الهدف الأولي لإطلاق آريان 6 هو 9 يوليو

أثار الباحثون في مجال المعلومات المضللة مخاوف من أنه مع توفر أدوات الذكاء الاصطناعي التي يمكنها إنشاء نصوص وصور ومقاطع فيديو واقعية على نطاق أوسع، سيصبح من الصعب اكتشاف المعلومات الخاطئة أو أنشطة التأثير السرية عبر الإنترنت والرد عليها. يصوت ملايين الأشخاص في الانتخابات حول العالم هذا العام، وقد انتشرت تقنيات الذكاء الاصطناعي العميق بالفعل.

تعمل OpenAI وGoogle وشركات الذكاء الاصطناعي الأخرى على تقنية للتعرف على التزييف العميق باستخدام أدواتها الخاصة، لكن هذه التقنية لم يتم إثباتها بعد. يعتقد بعض خبراء الذكاء الاصطناعي أن أجهزة الكشف عن التزييف العميق ليست فعالة تمامًا.

في وقت سابق من هذا العام، زُعم أن مجموعة تابعة للحزب الشيوعي الصيني أيدت التسجيل الصوتي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي لأحد المرشحين الذين يخوضون الانتخابات التايوانية على مرشح آخر. إلا أن السياسي، مالك شركة فوكسكون، تيري كو، لم يدعم السياسي الآخر.

في يناير/كانون الثاني، تلقى الناخبون في الانتخابات التمهيدية في نيو هامبشاير مكالمة آلية يُزعم أنها من الرئيس بايدن، ولكن سرعان ما تم التعرف عليها على أنها ذكاء اصطناعي. في الأسبوع الماضي، تم توجيه لائحة اتهام إلى أحد الديمقراطيين، الذي قال إنه قام بتشغيل مكالمة آلية، بتهم قمع الناخبين وانتحال شخصية المرشح.

ويفصل تقرير OpenAI كيف استخدمت خمس مجموعات تكنولوجيا الشركة في جهودها للتأثير على الأنشطة. وقالت الشركة إن مجموعة Spamoflage، وهي مجموعة صينية معروفة سابقًا، استخدمت تقنية OpenAI للبحث في النشاط على وسائل التواصل الاجتماعي وكتابة منشورات باللغات الصينية والكورية واليابانية والإنجليزية. كما استخدمت مجموعة إيرانية تسمى الاتحاد الدولي للوسائط الافتراضية تقنية OpenAI لإنشاء مقالات نشرتها على موقعها.

استخدمت مجموعة غير معروفة سابقًا، Bad Grammar، تقنية OpenAI لإنشاء برنامج يمكنه النشر تلقائيًا على تطبيق المراسلة Telegram. ثم استخدمت Bad Grammar تقنية OpenAI لإنشاء منشورات و ووفقا للتقرير، فإنه يقول باللغتين الروسية والإنجليزية أن الولايات المتحدة لا ينبغي أن تدعم أوكرانيا.

READ  سيبدأ JaMychal Green بدلاً من Kevon Looney ؛ تحديثات Lakers-Warriors الحية ، والتشكيلات ، وتقرير الإصابة ، وكيفية المشاهدة ، والتلفزيون

وقالت OpenAI إن التقرير وجد أن شركة حملات سياسية إسرائيلية تدعى Stoic استخدمت OpenAI لإنشاء منشورات مؤيدة لإسرائيل حول حرب غزة واستهدفتها أشخاصًا في كندا والولايات المتحدة وإسرائيل. وفي يوم الأربعاء، أشادت شركة ميتا المالكة لفيسبوك أيضًا بعمل Stoic، قائلة إنها أزالت 510 حسابًا على Facebook و32 حسابًا على Instagram تستخدمها المجموعة. وقالت الشركة للصحافيين إن بعض الحسابات تعرضت للاختراق، والبعض الآخر حسابات لأشخاص وهميين.

غالبًا ما تعلق الحسابات المعنية على صفحات أفراد معروفين أو وسائل إعلام تظهر طلاب جامعيين أمريكيين مؤيدين لإسرائيل، وأمريكيين من أصل أفريقي وغيرهم. وقال ميتا إن التعليقات أيدت الجيش الإسرائيلي وحذرت الكنديين من أن “الإسلام المتطرف” يهدد القيم الليبرالية هناك.

تصرف الذكاء الاصطناعي بناءً على صياغة بعض التعليقات، التي صدمت مستخدمي فيسبوك الحقيقيين باعتبارها غريبة وخارجة عن السياق. وقالت الشركة إن الأداء كان سيئاً، ولم يجتذب سوى حوالي 2600 متابع شرعي.

تعمل META بعد مختبر أبحاث الطب الشرعي الرقمي التابع للمجلس الأطلسي اكتشف الشبكة في X

في العام الماضي، اقترح باحثو المعلومات المضللة أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن تجري محادثات طويلة ومفصلة مع أشخاص محددين عبر الإنترنت، في محاولة للتأثير عليهم في اتجاه معين. يمكن لأدوات الذكاء الاصطناعي استيعاب كميات كبيرة من البيانات حول الأفراد وإرسال الرسائل إليهم مباشرة.

وقال نيمو إن OpenAI لم تحدد أي تطبيقات متطورة للذكاء الاصطناعي. وأضاف: “إنه تطور أكثر منه ثورة”. “ليس هناك ما يقول أننا لن نرى ذلك في المستقبل.”

ساهم جوزيف مين في هذا التقرير.

LEAVE A REPLY

Please enter your comment!
Please enter your name here