دراسة بريطانية تكشف: ChatGPT وGemini يمكن التلاعب بهما لتوليد محتوى مضلل - الأول نيوز

0 تعليق ارسل طباعة تبليغ حذف

حذرت دراسة صادرة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك، من إمكانية حدوث اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT و Gemini، والتلاعب بها لإنتاج محتوى مضلل.


وكشف الباحثون، أن نماذج الذكاء الاصطناعي من السهل التلاعب بها عبر بعض الثغرات التي تتيح للمخترقين تدريب هذه النماذج لإنتاج محتوى مضلل وضار للمستخدمين من خلال التدريب باستخدام بيانات كاذبة، واستندت الدراسة على تجربة واقعية استعان خلالها الباحثون بنحو  250 وثيقة ملوثة ببيانات مغلوطة، تم إدخالها عبر ثغرة خلفية، وبعد التجربة، أنتجت الأدوات نصوصا مبهمة وغير مفهومة.

وأثارت تلك النتائج قلق الباحثين من قدرة الجهات الخبيثة لإدخال نصوص ملوّثة لهذه المنشورات لجعل النماذج تكتسب سلوكيات غير مرغوب فيها وخطيرة، وتعرف هذه العملية باسم "التسميم"، مما يوجب على المستخدم عدم الاعتماد على هذه النماذج لاسيما في البيانات شديدة الحساسية .

0 تعليق