الرئيسية » تحقيقات » خدع تهدد مستقبل الذكاء الاصطناعي

خدع تهدد مستقبل الذكاء الاصطناعي

20/04/2017  -  المشاهدات 146

الحكمة – متابعة: لا يزال أمام الآلات شوط طويل لترقى إلى مستوى البشر في التعلم من الخبرات السابقة، وهذا الأمر يمثل مخاطر محتملة لا تقتصر على الخصوصية والأمن فحسب، بل تتعداهما إلى أمور أخرى.

تخيل أنك في عام 2022، وأنت تركب سيارتك ذاتية القيادة في إحدى الرحلات المعتادة عبر المدينة، ثم اقتربت السيارة من لافتة التوقف التي مرت بها السيارة مئات المرات من قبل، ولكن هذه المرة، لم تتوقف، بل انطلقت مسرعة.

ربما لا تلاحظ أي تغيير في اللافتة، ولكن السيارة تراها مختلفة تماما عن لافتات التوقف الأخرى. فمنذ دقائق، وضع أحد المحتالين خلسة ملصقا صغيرا على اللافتة، لا يمكن أن يلاحظه البشر، ولكن التكنولوجيا لا يمكن أن تتجاهله.

ما حدث في هذه الحالة هو أن هذا الملصق الصغير جعل اللافتة تبدو واضحة للسيارة وكأنها شيء مختلف تماما عن لافتة التوقف.

ربما قد تجد هذا الأمر بعيد الاحتمال، ولكن الكثير من الأبحاث أثبتت أن الذكاء الاصطناعي يسهل خداعة بنفس الطريقة، بحيث يرى الأشياء بصورة تختلف كليا عن تلك التي يراها بها البشر.

وفي ظل هيمنة الخوارزميات، التي يمكن للآلات التعلم منها، على طرقنا وإدارة أموالنا وأنظمة الرعاية الصحية، يأمل علماء الكمبيوتر أن يتوصلوا إلى وسائل تمكنهم من حماية الخوارزميات من الهجمات المتوقعة من هذا النوع، قبل أن يحاول شخص ما خداعها بالفعل.

يقول دانييل لود، الأستاذ المساعد بقسم علوم الكمبيوتر والمعلومات بجامعة أوريغون: “يشعر العاملون في مجال التعلم الآلي والذكاء الاصطناعي بالقلق حيال عمليات الاحتيال بسبب زيادة الاعتماد على هذه الخوارزميات”.

ويضيف لوود: “يمكن أن تصل إلى بريدك الإلكتروني الرسائل المزعجة غير المرغوب فيها أو تتعرض بعض رسائل بريدك للحجب، لكن هذا ليس نهاية العالم. وإذا كنت تعتمد كليا على نظام الرؤية في السيارات ذاتية القيادة لمعرفة المكان الذي تتجه إليه وتفادي الاصطدام بأي شيء، فإن المخاطر ستكون أعلى.”

ويرجع السبب في تعطل الآلة الذكية أو تعرضها للقرصنة، إلى الطريقة المختلفة التي ترى بها خوارزميات التعلم الآلي العالم من حولها. ومن هنا قد ترى الآلة حيوان الباندا في صورة قرد الغيبون، أو تبدو لها الحافلة المدرسية في صورة نعامة.

وقد أبرز باحثون من فرنسا وسويسرا في إحدى التجارب كيف أدى هذا التشويش في الرؤية إلى عجز الكمبيوتر عن التمييز بين السنجاب والثعلب أو كوب القهوة وحيوان المكاو.

ولكن كيف يحدث هذا الالتباس؟ فكر في الطريقة التي يتعلم بها الطفل الأرقام، فالطفل يجب أن ينظر إلى كل رقم على حدة، حتى يتعرف على خصائصه المحددة،. وعندما يرى الطفل المزيد من الأمثلة، يتعرف سريعا على أرقام جديدة، مهما اختلف الخط.

وبهذه الطريقة أيضا تتعلم خوارزميات التعلم الآلي كيفية تمييز الأشياء الموجودة في العالم، إذ يغذي العلماء أحد أجهزة الكمبيوتر بآلاف الأمثلة عن أي شيء يريد العلماء أن يرصده الكمبيوتر، وكل مثال منها يحمل علامة مميزة في المعتاد. وبعد أن تفحص الآلة البيانات وتفرز الأرقام، فإنها تتعرف على السمات التي تساعدها في الإجابة، وسرعان ما تتمكن من تمييز الرقم بمجرد النظر إليه بدقة عالية.

خدع تهدد مستقبل الذكاء الاصطناعيتغلغل الذكاء الاصطناعي في كل جوانب حياتنا اليومية ولم يعد بإمكاننا الاستغناء عنه، بداية من السيارات ذاتية القيادة ووصولا إلى الأجهزة المنزلية التي تعمل ذاتيا

ويمكن القول إن الأطفال وأجهزة الكمبيوتر يتعلمان بنفس الطريقة كيفية التعرف على طائفة كبيرة من الأشياء، بدءا من الأرقام والقطط والقوارب، ووصولا إلى الوجوه البشرية.

ولكن على عكس الطفل، لا ينتبه الكمبيوتر إلى التفاصيل عالية الدقة، مثل أذن القطة أو شكل الزاوية المميز للرقم أربعة، لأنه لا ينظر إلى الصورة ككل. لكن الكمبيوتر ينظر إلى كل بيكسل من الصورة على حدة ويحاول أن يجد أسرع طريقه لتمييز كل بيكسل عن الآخر.

ولهذا، عند إدخال تغييرات دقيقة جدا كما حدث في لافتة التوقف، ينخدع الكمبيوتر ويخيل إليه أن لافتة التوقف هي شيء مختلف تماما.

وأجريت أبحاث مشابهة في “مختبر الذكاء الاضطناعي المتطور” بجامعة وايومنغ وجامعة كورنيل، عرض فيها الباحثون عددا كبيرا من وسائل الخداع البصري على الذكاء الاصطناعي. وعلى الرغم من أن البشر لم يتكمنوا من تمييز هذه الصور ذات التأثيرات البصرية ذات الألوان والأشكال المبهمة، فإن الكمبيوتر استطاع أن يميزها بسرعة ولكنها بدت له في صورة بنادق أو ثعابين. وهذا يدل على أن الذكاء الاصطناعي قد ينظر إلى الشيء ثم يجيب إجابة لا تمت بصلة لحقيقتها.

ويقول يفجيني فوروبيتشيك، الأستاذ المساعد بقسم هندسة وعلوم الكمبيوتر بجامعة فاندربيلت: “علينا أن نتوقع أن كل خوارزم له نقطة ضعف تجعله عرضة للوقوع في الخطأ. فنحن نعيش في عالم معقد متعدد الأبعاد، ولا تركز الخوارزميات، بسبب طبيعتها، إلا على جزء صغير نسبيا منه”.

ويؤكد فويوبيكيك أنه في حالة وجود نقاط ضعف في الخوارزميات، سيحاول البعض استغلالها، وربما تكون قد اسُتغلت بالفعل.

وهذا يذكرنا بمرشحات الرسائل الإلكترونية المزعجة غير المرغوبة، وهي البرامج التي تستبعد أي رسائل تبدو مشبوهة، وقد يحاول مرسلو هذا النوع من الرسائل تجاوز المرشحات من خلال تغيير بعض الحروف في الكلمات التي تتكرر في الرسائل المشبوهة أو بإضافة مجموعة من الكلمات التي ترد عادة في الرسائل العادية مثل كلمات “يُسعدني” أو “أنا”، أو “بالطبع”، أو التغطية على الكلمات التي تظهر عادة في الرسائل الشاذة، مثل “لقد فزت بكذا” أو “جهاز محمول” أو “يمكنك المطالبة بكذا”.

وبخلاف الاحتيال بوضع ملصق على لافته التوقف، وهو تصور طرحة خبراء في هذا المجال، فإنه من الممكن للمهاجمين تسريب بيانات إباحية من دون أن تكتشفها المرشحات التي تمنع دخول المعلومات غير الآمنة، أو يحاول آخرون زيادة الأرقام على أحد الشيكات المصرفية، أو ربما يحاول قراصنة إدخال تغييرات طفيفة على شفرة البرمجيات الخبيثة لتخترق وسائل حماية المعلومات الرقمية.

وقد يتمكن المهاجمون من اختلاق بيانات معادية تمكنهم من خداع خوارزم التعلم الآلي، إذا استطاع أن يحصل على نسخة من هذه الخوارزميات. لكن هذا قد يحدث من دون اللجوء لهذه الطريقة، فقد يعزز المخترقون من هجومهم عبر محاولات عديدة، فيُرسل صيغا مختلفة من الرسالة الإلكترونية أو الصورة أو غير ذلك، حتى تنجح إحدى هذه الصيغ في خداع الخوارزميات.

ومع مرور الوقت، قد يُستخدم هذا الأمر في ابتكار نموذج جديد من الخوارزميات يعرف جيدة نوعية البيانات التي يبحث عنها أصحاب النوايا الحسنة، وكيفية إنتاج بيانات تمكنه من خداعها.

خدع تهدد مستقبل الذكاء الاصطناعيالسيارات ذاتية القيادة وأجهزة الروبوت التي تجري العلميات الجراحية تُحيط بها الكثير من المخاطر، فأي خطأ طفيف ترتكبه الآلات الحديثة سيسبب الكثير من المشاكل

ويقول باتريك ماكدانييل، أستاذ هندسة وعلوم الكمبيوتر بجامعة بنسلفانيا: “يحاول الناس التحايل على أنظمة التعلم الآلي منذ نشأتها. وإذا انتشر استخدام هذه الأساليب، فإننا قد لا نستطيع اكتشافها”.

بالإضافة إلى المحتالين الذين يتحينون الفرص لخداع المستخدم، قد يحاول البعض الكشف عن البيانات السرية للمستخدم أو انتحال شخصية أخرى للإفلات من رقابة الوسائل التكنولوجية الحديثة الصارمة.

ويقول لود: “إذا كنت معارضا سياسيا تعيش في دولة يحكمها نظام قمعي، وأردت أن تزاول أنشطتك السياسية من دون أن تُستهدف، فإن القدرة على تفادي تقنيات الرقابة الآلية القائمة على خوارزميات التعلم الآلي قد يكون وسيلة إيجابية.”

وفي مشروع نُشر في أكتوبر/تشرين الأول صمم الباحثون في جامعة “كارنيغي ميلون” إطار نظارة خصيصا لخداع نظام التعرف على الوجوه، وبالاستعانة بهذا الإطار، لم يتمكن الكمبيوتر من تمييز وجه الممثلة ريث ويذرسبون عن وجه الممثل راسيل كرو. ولكن هذه التقنية ربما تفيد من يحاول بشتى الطرق أن يتفادي رقابة السلطة الحاكمة.

ويقول لود: “السبيل الوحيد لتفادي خداع الخوارزميات هو بناء نموذج مثالي لا يخطأ أبدا”. المشكلة أننا حتى لو توصلنا إلى ذكاء اصطناعي يفوق الإنسان مهارة وذكاء، فسنواجه المزيد من الحالات الملتبسة التي لم يكشف أحد غموضها بعد.

وتمتاز خوارزميات التعلم الآلي بدقتها المتناهية، فقد استطاع أحد البرامج أن يتعرف على 99 في المئة من المقاعد المختلفة، وهذا أفضل بالطبع من برنامج آخر يتعرف على الأشياء بدقة ست مرات من بين عشرة مرات. لكن بعض الخبراء يرون أنه يجب قياس قدرة الخوارزم على التصدي للهجوم، وكلما زادت قدرته على المقاومة، اعتبر أفضل من غيره.

وثمة حل آخر وهو أن يختبر المتخصصون البرامج بأنفسهم، وذلك من خلال محاكاة هجمات افتراضية في المختبر استنادا إلى توقعاتهم لسلوك المحتال، ثم عرضها على خوارزم التعلم الآلي، وهذا قد يساعدهم الخوارزم على اكتساب قدرة أكبر على الصمود أمام الهجمات في المستقبل، ولكن شريطة أن تتطابق الهجمات التي أجريت في المعمل مع نوعية الهجمات التي يتعرض لها في الحقيقة.

ويقترح ماكدانييل أن يكون البشر جزءا من الحلول دائما، كلما كان ذلك ممكنا، ليتحققوا من صحة تخمينات الخوارزميات. ويجري الاستعانة بفريق بشري في بعض أجهزة المساعدة الذكية، مثل المساعد الافتراضي “إم” الذي أطلقتة شركة فيسبوك، حيث يراجع أفراد الفريق إجابات المساعد “إم” ويعدلونها إذا لزم الأمر. ويحبذ البعض وجود البشر في التطبيقات الحساسة لخوارزميات التعلم الآلي.

ويضيف ماكدانييل: “تُعد أنظمة التعلم الآلي وسيلة للاستدلال بناء على التجارب السابقة، ولكن علينا أن نتعامل بفطنة وعقلانية مع المعلومات التي نُدخلها إلى هذه الأنظمة والمعلومات والتنبؤات التي تخرجها لنا. فلا يجب أن نعتبرها من المسلمات التي لا تقبل الجدل”.

يمكنك قراءة الموضوع الأصلي على موقعBBC Future.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

*