تزوير بالصوت والصورة.. الذكاء الاصطناعي سلاح خطير في يد القراصنة

تزوير بالصوت والصورة.. الذكاء الاصطناعي سلاح خطير في يد القراصنة

منذ أن أصبحت متاحة منذ حوالى سنة للاستخدام العام يخشى مراقبون من إمكان أن تسهّل هذه الآلية برامج التزوير القائمة على الذكاء الاصطناعي. يتمثل التهديد الرئيسي الجديد سهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماماً.

يخشى مراقبون من إمكان أن تسهّل روبوتات الدردشة وبرامج التزوير القائمة علىالذكاء الاصطناعي عمل الجهات الضالعة في الجرائم الإلكترونية وعمليات الاحتيال عبر الإنترنت، بعدما أصبحت متاحة منذ حوالى سنة للاستخدام العام، من دون أن تُحدث تغييرات جذرية على صعيد هجمات المعلوماتية التقليدية.

أدوات أفضل لـ »التصيد الاحتيالي »

تتمثل عملية « التصيد الاحتيالي » (« فيشينغ ») بالاتصال بشخص مستهدف وجعله يُدخل البيانات الخاصة به على موقع مقرصن يشبه المواقع الأصلية.

ويشرح جيروم بيلوا، وهو خبير في أمن المعلوماتية في شركة الاستشارات « وايفستون » ومؤلف كتاب عن الهجمات السيبرانية لوكالة فرانس برس، « الذكاء الاصطناعي يسهل ويسرع وتيرة الهجمات » من خلال إرسال رسائل إلكترونية مقنعة وخالية من الأخطاء الإملائية.

ويتبادل القراصنة بذلك خططاً تمكّنهم من توليد رسائل احتيالية محددة الهدف بشكل تلقائي، بواسطة منتديات عبر الإنترنت أو رسائل خاصة.

وللتغلب على القيود التي وضعها مقدمو الحلول بشأن الذكاء الاصطناعي، تسوّق مجموعات متخصصة منذ هذا الصيف نماذج لغوية مدربة على إنتاج محتويات خبيثة، على غرار تطبيق « فرود جي بي تي ». لكن لا يزال يتعين إثبات فعاليتها.

خطر تسريب البيانات

يُعتبر الذكاء الاصطناعي التوليدي واحداً من التهديدات الخمسة الرئيسية التي تهابها الشركات، وفق دراسة حديثة أصدرتها شركة « غارتنر » الأمريكية.

وتخشى الشركات خصوصاً في هذا المجال تسرب البيانات الحساسة التي يتناقلها موظفوها، الأمر الذي دفع شركات كبرى، ومنها « آبل » و »أمازون » و »سامسونغ » إلى منع موظفيها من استخدام « تشات جي بي تي ».

وتوضح مديرة الأبحاث في « غارتنر » ران شو أن « كل معلومة يتم إدخالها على أداةالذكاء الاصطناعي التوليدي يمكن أن تدخل في مساره التعلّمي، وهذا ما قد يجعل معلومات حساسة أو سرية تظهر في نتائج عمليات بحث مستخدمين آخرين ».

وأطلقت شركة « أوبن ايه آي »، المطورة لبرنامج « تشات جي بي تي »، في غشت الماضي النسخة المحترفة « تشات جي بي تي انتربريز » التي لا تستعمل الدردشات من أجل التعلّم بغية تطمين الشركات التي تخشى تسريب معلوماتها.

من جهتها، توصي شركة « غوغل » موظفيها بعدم إدخال معلومات سرية أو حساسة في برنامج الدردشة الآلي الخاص بها، « بارد ».

تزوير بالصوت والصورة

يتمثل التهديد الرئيسي الجديد للذكاء الاصطناعي بسهولة نسخ الوجوه والأصوات وتوليد ما يطابقها تماماً. فمن خلال تسجيل لا تتجاوز مدته بضع ثوان، تسمح بعض الأدواتعبر الانترنت بتوليد نسخة مطابقة تماماً قد يقع ضحيتها الزملاء أو الأقارب.

ويعتبر مؤسس شركة « أوبفور انتلجنس » جيروم سايز أن هذه الأدوات قد تُستخدم بسرعة من جانب « مجموعة كاملة من الجهات الضالعة في عمليات احتيال صغيرة، لها وجود فعال في فرنسا وغالبًا ما تكون وراء حملات خبيثة تستعمل الرسائل النصية » بهدف الحصول على أرقام البطاقات المصرفية.

ويضيف لوكالة فرانس برس « هؤلاء المخالفون الصغار، الذين يكونون بالإجمال من فئة الشباب، سيتمكنون وبسهولة من تقليد الأصوات ».

وفي يونيو، وقعت أم أمريكية ضحية احتيال اثر اتصال رجل بها للمطالبة بفدية لقاء تسليمها ابنتها الذي زعم أنها مخطوفة، وقد عمد الرجل إلى إسماعها ما ادعى أنه صراخ ابنتها الضحية. وانتهى الحادث من دون وقوع أضرار، بعد أن اشتبهت الشرطة في أن الحادثة تشكل عملية احتيال تعتمد على الذكاء الاصطناعي.

ويشرح بيلوا أنه، بالنسبة للشركات التي باتت على دراية بأساليب احتيالية مستخدمة على نطاق واسع تقوم على انتحال محتالين صفة الرئيس التنفيذي للشركة للحصول على تحويلات مالية، فإن « استخدام مقتطف صوتي أو فيديو مزيف »، من قبل المقرصن « يمكن أن يقلب مسار الأحداث لصالح » هذا الأخير.

قراصنة مبتدئون

ويعتقد سايز أنّ « أياً من الهجمات التي نجحت في العام الماضي لا يدفع إلى الاعتقاد بأنها نتيجة استخدام الذكاء الاصطناعي التوليدي ».

ورغم أن روبوتات الدردشة قادرة على تحديد بعض العيوب وتوليد أجزاء رموز معلوماتية خبيثة، إلا أنها عاجزة عن تنفيذها مباشرة.

في المقابل، يرى سايز أن الذكاء الاصطناعي « سيسمح لأشخاص محدودي الموهبة بتحسين مهاراتهم »، مستبعداً في المقابل أن يتمكن « الذين يبدأون من الصفر من تطوير برامج مشفرة باستخدام تشات جي بي تي ».