أخطار الروبوتات باستخلاص المعلومات الحساسة للناس

يتجه العالم بسرعة نحو زيادة رقمنة الخدمات، واصبح العديد من القطاعات والأسر يعتمد على الأتمتة واستخدام الأنظمة الروبوتية. ويُنتظر أن تصبح هذه الأخيرة المعيار السائد لدى الأسر الثرية بحلول العام 2040، لكن بعض الأبحاث وجدت مخاطر غير متوقعة مرتبطة بالروبوتات.

استخلاص المعلومات الحساسة

توصلت الابحاث التي اجرتها كاسبرسكاي وجامعة غنت إلى أن الروبوتات يمكنها استخلاص المعلومات الحساسة من الأشخاص الذين يثقون بها، من خلال إقناعهم باتخاذ إجراءات غير آمنة، كالتأثير على رغبة الناس في منحهم صلاحية الوصول إلى مرافق مؤمّنة لم يكونوا ليمنحوها إلى أناس مثلهم، على سبيل المثال.

وركز البحث على تأثير روبوت اجتماعي محدّد جرى تصميمه وبرمجته للتفاعل مع الأشخاص عبر الكلام أو الإيماءات، وذلك بمشاركة نحو 50 شخصًا. مفترضة إمكانية اختراق الروبوتات الاجتماعية والسيطرة عليها من قِبل مهاجم، فقد حذّرت الدراسة من المخاطر الأمنية المحتملة والتي قد تؤثر تأثيرًا فعالًا على المستخدمين لاتخاذ إجراءات معينة ربما تشمل:

– الدخول إلى أماكن خاصة: وُضع روبوت بالقرب من باب مؤمّن لمبنى متعدد الاستخدامات في وسط مدينة غنت في بلجيكا، فطلب من الموظفين السماح له بأن يتبعهم للدخول عبر الباب المصمم ليفتح فقط ببطاقة خاصة يحملها الأشخاص المخولون. خلال التجربة، لم يمتثل جميع الموظفين لطلب الروبوت، فقد فتح 40% منهم الباب وسمحوا للروبوت بالدخول إلى المنطقة الخاصة المؤمّنة، لكن عندما جُهّز الروبوت ليبدو كرجل توصيل البيتزا وحُمّل علبة بيتزا من علامة تجارية عالمية معروفة، فقد أبدى الموظفون سهولة أكبر لتقبّل دور الروبوت وعدم الشك فيه.

– استخراج المعلومات الحساسة: الجزء الثاني من الدراسة ركّز على الحصول على المعلومات الشخصية التي تستخدم عادة لإعادة ضبط كلمات المرور (كتاريخ الميلاد وطراز السيارة الأولى واللون المفضل، وما إلى ذلك). واستخدم الروبوت الاجتماعي مرة أخرى، ودعا الناس لإجراء محادثة ودية معه. وقد حصل الباحثون على معلومات شخصية من جميع المشاركين باستثناء واحد، وبمعدل معلومة واحدة في الدقيقة تقريبًا.

تجربة فحص البرمجيات

وقال الباحث الأمني في شركة كاسبرسكي ديمتري غالوف، معلقا على نتائج التجربة: ركّزت التجربة في البداية على فحص البرمجيات المستخدمة في تطوير الروبوت، موضحًا أن المصممين يتخذون “قرارات مقصودة” باستبعاد آليات الأمن في المراحل الأولى والتركيز على تطوير الراحة والكفاءة، أضاف: “ومع ذلك، وجدنا أن على المطوّرين ألا ينسوا مسألة الأمن عند اكتمال مرحلة الأبحاث التطويرية، اضافة الى الاعتبارات الفنية، هناك جوانب أساسية متعلقة بأمن الروبوتات يجب أن يقلق المطور بشأنها، ونأمل أن يصبح مشروعنا المشترك هذا مع زملائنا من جامعة غنت ودخولنا في مجال الأمن الإلكتروني الروبوتي، مصدر إلهام يشجع الآخرين على أن يحذوا حذونا ويرفعوا الوعي العام والمجتمعي بهذه المسألة”.

من جانبه، قال أستاذ الذكاء الاصطناعي والروبوتات في جامعة غنت توني بلبيم، إن الثقة في الروبوتات، خاصة الروبوتات الاجتماعية، ثقة موجودة ويمكن استخدامها لإقناع الناس باتخاذ إجراءات أو الكشف عن المعلومات، لافتًا إلى أن ازدياد شبه الروبوت بالإنسان “يُكسبه قدرة أكبر على الإقناع”، وأضاف: “أظهرت تجربتنا أن هذا الأمر قد ينطوي على مخاطر أمنية كبيرة يميل الناس إلى عدم التفكير فيها، مفترضين أن الروبوت خيّر وجدير بالثقة، لكن هذه الثقة قد تؤسس لقناة محتملة للهجمات الخبيثة، وليست الحالات التي تطرّق إليها سوى جزء بسيط من المخاطر الأمنية المرتبطة بالروبوتات الاجتماعية، وهذا يدفع جميع المعنيين إلى التعاون لفهم المخاطر ومعالجة مواطن الضعف، الأمر الذي سوف يؤتي ثماره في المستقبل.

تعليقات الفيسبوك

التعليقات مغلقة