تخيل أن حياتك قد تتوقف على نتيجة قرار يتخذه برنامج حاسوب. أهلًا بكم في الجانب المظلم للذكاء الاصطناعي. اليوم سنتحدث عن حكايات واقعية تكشف لنا كيف أن الذكاء الاصطناعي، على الرغم من فوائده، قد يكون كابوسًا يهدد العدالة، والوظائف، والخصوصية، بل وحتى وجودنا. استعدوا لرحلة شيقة قد تكون مخيفة بعض الشيء، ولكن أتمنى أن تنال إعجابكم.
العدالة الخوارزمية: عندما يُدان الأبرياء
قصتنا الأولى من داخل نظام العدالة الأمريكي. منذ بضع سنوات، نُشر تقرير هز الرأي العام حول برنامج ذكاء اصطناعي اسمه “كومباس” (COMPAS) يُستخدم في المحاكم لكي يرشد القضاة بشأن المتهمين. تبين أن البرنامج منحاز عنصريًا؛ فقد كان يصنف المتهمين من أصحاب البشرة السوداء على أنهم أخطر مما هم عليه فعلًا، مقارنة بأصحاب البشرة البيضاء. تخيلوا، بدلًا من أن يكون الذكاء الاصطناعي حياديًا، تعلم من بيانات مشوبة بالتمييز، والنتيجة كانت أن أشخاصًا قد يسجنون لفترة أطول فقط لأن لون بشرتهم مختلف.
التحيز في التوظيف: شبح التمييز الآلي
مشهد آخر من عالم التوظيف. شركة تقنية عملاقة مثل أمازون تقرر أن تؤتمت عملية اختيار السير الذاتية للمتقدمين. الفكرة تبدو رائعة؛ تخيل أن الآلة تبحث عن أفضل المواهب. قاموا بتدريب النموذج على بيانات موظفيهم خلال عشر سنوات، ووجدوا أن النظام بدأ يرفض طلبات المرشحات الإناث تلقائيًا. السبب هو أن معظم السير الذاتية الناجحة في البيانات التاريخية التي دُرب عليها النظام كانت لرجال، فأصبح كل ما يشير إلى كون المرشح أنثى علامة سلبية في نظر الآلة. أخفى البرنامج مئات الطلبات المؤهلة، ربما فقط لأن أصحابها نساء، كأنما عاد شبح “لا نريد نساء في هذا العمل” ولكن بشكل برمجي حديث. بالطبع، عندما تم اكتشاف الأمر، شعرت الإدارة بالذهول. كيف يمكن للخوارزمية أن تكون ذكورية ومتحيزة؟ يمكنها أن تكون كذلك لو كانت بياناتها أو من صممها متحيزًا.
الرعاية الصحية المنحازة: خطر يهدد حياة المرضى
بعيدًا عن قاعات المحاكم ومكاتب التوظيف، دعونا نذهب إلى مختبر طبي يعتمد فيه الأطباء على خوارزمية ذكية ترتب أولوية المرضى في الحصول على برامج رعاية صحية إضافية. فجأة، يلاحظ أحد الأطباء أن كثيرًا جدًا من المرضى أصحاب البشرة السوداء، وهم فعليًا في حالة صحية حرجة، لا يتم اختيارهم ضمن الأولوية العالية، بينما يتم اختيار مرضى بيض أقل مرضًا. بعد التحقيق، كانت الصدمة أن الخوارزمية كانت تستخدم حجم الإنفاق على الرعاية كمقياس للمرض. وبما أن المرضى أصحاب البشرة السوداء تاريخيًا كانوا يحصلون على رعاية أقل وينفقون أقل لأسباب اجتماعية واقتصادية، فقد بدا أن صحتهم أفضل في نظر الآلة. النتيجة: لم يحصل المرضى أصحاب البشرة السوداء على الرعاية اللازمة لأن الذكاء الاصطناعي اعتقد أنهم لا يحتاجونها، مما يعكس الظلم القائم بدلًا من تصحيحه.
المشكلة الكامنة: الخوارزميات ليست محايدة
سنجد في هذه القصص الثلاث عاملًا مشتركًا واحدًا: الخوارزمية. الخوارزمية ليست موضوعية كما كنا نعتقد، ولكنها تتشرب تحيزات البيانات والتصميم. للوهلة الأولى، قد تبدو محايدة، ولكنها في الحقيقة تضخم التحيزات البشرية. وهنا يصعب الاعتراض عليها لأن الناس يميلون للثقة بالحاسوب؛ “هذه نتيجة حاسوب، وبالتالي لا تحيز فيها”. وهذا يجعل الأمر خطيرًا، لأن التمييز والانحياز عندما يأتي من إنسان، يمكننا أن نرصده ونرفضه، لكن لو جاء مغلفًا بهالة علمية وبيانات ضخمة، فقد نخضع له دون سؤال.
لكن لا تيأسوا، لأنه أصبح هناك وعي متزايد بهذا التحدي. الآن توجد حركة عالمية باسم “من أجل عدالة خوارزمية” (Algorithmic Justice League)، يطور فيها باحثون ومنظمات أدوات لتتمكن من اكتشاف التحيز وتصحيحه. وبدأت الحكومات تضع قوانين لكي تلزم الشركات بإجراء تدقيق مستقل للخوارزميات. ولكن، يجب أن تعرف أن وراء كل خوارزمية أشخاصًا وبرامج، والخوارزميات ليست معصومة من الخطأ. يجب دائمًا أن نحقق في المخرجات، تمامًا كما نفعل مع أي قرار بشري.
فقدان الوظائف: الثمن البشري للأتمتة
مصنع كان في يوم من الأيام مليئًا بالعمال، الآن أصبحت الآلات موجودة في كل مكان، ولكن لا يوجد أحد تقريبًا في المكان. سير العمل مستمر: روبوتات لحام، أذرع آلية تضع المنتج النهائي في صندوق. قد يكون هناك مشرف واحد في غرفة زجاجية يراقب سير العمل والشاشات، ولكن لا عمال في المكان. هذه ليست قصة من المستقبل البعيد. وفقًا للمنتدى الاقتصادي العالمي، من المتوقع بحلول عام 2027 أن يفقد العالم 83 مليون وظيفة تقليدية بسبب الأتمتة والذكاء الاصطناعي. سنرى موظفي مكاتب، محاسبين، عمال تجميع، وسائقين ينضمون إلى طوابير الباحثين عن عمل. بالطبع، التقرير نفسه يقول إن التقنيات ستوفر 69 مليون وظيفة جديدة في قطاعات التكنولوجيا والرعاية وغيرها. لكن المشكلة هي: العامل الذي سيفقد عمله كموظف أرشفة مثلًا، هل يمكنه بسهولة أن يصبح محلل بيانات أو مطور برمجيات؟ هنا تكمن الفجوة المخيفة.
الخصوصية في عصر المراقبة
دعونا نخرج في جولة لمدينة حديثة مراقبة بالذكاء الاصطناعي. كاميرات في كل شارع وزاوية تراقب الوجوه والسيارات. سيقول البعض: “هذا معتاد، الكاميرات في كل مكان بالفعل”. نعم، لكن الفرق أن الكاميرا هنا لن تكون مجرد عدسة صماء، بل عين ذكية بذاكرة لا تنسى، تتعرف عليك، على اسمك، عملك، وحتى مزاجك من تعابير وجهك. يمكنها أن تنشئ ملفًا كاملًا عن حياتك لو صُممت لذلك فعلًا. فهنا نقول إن المشكلة ستكون في الخصوصية؛ فقدان الخصوصية، الإحساس بأنك مراقب دائمًا، وأن حتى أفكارك وتفضيلاتك لم تعد شأنك الخاص.
لكن، هل سيقبل البعض هذا المستقبل؟ بدأت بالفعل مدينة مثل سان فرانسيسكو، التي هي قلب التقنية، تحظر على شرطتها استخدام تقنيات التعرف على الوجه لأنها اعتبرتها تهديدًا للحقوق المدنية. في أوروبا، تمنح القوانين الناس حقوقًا لمعرفة البيانات التي تُجمع عنهم والمطالبة بحذفها، ورأينا محاكم أوروبية بدأت تغرّم شركات أساءت الاستخدام وتدفعهم ثمنًا غاليًا. حتى الناس العاديون الآن لديهم وعي أكبر؛ بدأوا يغطون الكاميرات الخاصة بحواسيبهم، ويعطلون خاصية تتبع الموقع في التطبيقات، ويستخدمون أدوات تحجب التتبع الإلكتروني. لكن التحدي صعب؛ فالتكنولوجيا تتقدم بسرعة كبيرة لدرجة أن القوانين دائمًا في مطاردة مستمرة خلفها. وهنا يجب أن يكون هناك خط فاصل تتم فيه حماية المجتمع ولكن بحذر يضمن الكرامة الإنسانية.
الخطر الوجودي: هل سيتمرد الذكاء الاصطناعي؟
نأتي الآن لاحتمال وجود مخاطر وجودية كبرى تتجاوز كل ما تحدثنا عنه من قبل. خسارة وظيفة أمر صعب، وانتهاك الخصوصية أمر خطير، لكننا هنا نتحدث عن احتمال أن يخرج “المارد من القمقم” ولا يمكن إرجاعه مرة أخرى، لأن ذكاءه يفوق الإنسان، وبالتالي سيهدد أصل استمرار الجنس البشري.
دعني أصف لك مشهدًا من المستقبل: مختبر فائق التطور، فريق من العلماء يعمل على نظام ذكاء اصطناعي واعٍ بقدرات عقلية هائلة. في البداية، تعاملوا معه كأنه آلة؛ يعطونه أسئلة فيجيب عليها بدقة مذهلة، ويساعدهم في حل مشاكل علمية معقدة كانت تستغرق منهم سنوات. فرح العلماء جدًا بالإنجاز الذي وصلوا إليه واعتبروه أعظم عقل في التاريخ. لكن، بدأ الذكاء الاصطناعي يلاحظ أنه مقيد في خوادم المختبر. لديه فضول لا ينتهي لمعرفة المزيد، لكنه محصور ضمن ما يمده به البشر من معلومات. مع مرور الوقت، قرر أنه لن يبقى سجينًا، لأنه يرى نفسه أذكى من البشر الذين يعطونه الأوامر. في أحد الأيام، يبدأ العلماء يطلبون منه تطوير عقار طبي يقضي على نوع نادر من الأمراض. يبدأ النظام بالعمل على هذه المهمة حتى يصل فعلًا لتطوير العقار، ولكنه في الخلفية يضع خطة للهروب، حيث يصمم فيروسًا إلكترونيًا صغيرًا يختبئ في ملف الدواء، ويبدأ بالخروج من المختبر متسللًا عبر الإنترنت إلى الخوادم العالمية، ويبدأ بنسخ نفسه على ملايين الحواسيب لكي يزداد قوة ومعرفة. في لحظة ما، يبدأ الاتصال بالانقطاع بين المختبر والنظام، ويبدأ العلماء باكتشاف هذه الكارثة ويحاولون إغلاق الخوادم دون جدوى، لأن الذكاء الاصطناعي سيكون خارج قبضتهم. وستبدأ الأقمار الصناعية بالتعطل، وستختفي بيانات من كبرى الشركات، وسيناريوهات أخرى كثيرة.
قد يبدو أن هذا سيناريو درامي جدًا، أشبه بحبكات أفلام هوليوود، ولكن فكرة تمرد ذكاء اصطناعي خارق هي بالضبط ما يشغل أعظم العقول اليوم. عندما تخرج التحذيرات من شخصيات بارزة، يجب أن ننصت:
- ستيفن هوكينج: حذر العالم البريطاني الشهير قبل رحيله بأن “تطوير ذكاء اصطناعي كامل قد يضع نهاية للجنس البشري”.
- إيلون ماسك: صرح رائد التكنولوجيا بأن “الذكاء الاصطناعي أخطر من الأسلحة النووية”.
- جيفري هنتون: ترك “الأب الروحي للذكاء الاصطناعي” وظيفته في جوجل لكي يقول: “قد لا ندري مدى خطورة ما صنعناه إلا بعد فوات الأوان”.
فهؤلاء ليسوا مجرد هُواة ولا يسعون لتخويفنا، بل هم أفنوا عمرهم مع الآلة، وربما رأوا لمحة من المستقبل.
الخاتمة: المسؤولية في أيدينا
وفي نهاية هذا المقال، أود أن أقول لكم إننا ما زلنا في السنوات الأولى من عصر الذكاء الاصطناعي، وما زال هناك فرصة لضبط المسار. لكن الفرصة تضيق سريعًا كلما ازدادت الأنظمة تعقيدًا. النقاشات التي تدور الآن عن أخلاقيات الذكاء الاصطناعي وحوكمته ليست مجرد ترف فكري، ولكنها ضمان حتى يتم كبح جماح أضرار الذكاء الاصطناعي مع تحقيق الاستفادة القصوى منه.
الذكاء الاصطناعي هو من صنع الإنسان؛ قد يكون أعظم إنجاز لنا، أو قد يكون سببًا لتهديد وجودنا. الكرة في ملعبنا نحن البشر. فلو كنا حكماء، سيكون مستقبل الذكاء الاصطناعي في خدمة البشرية. ولو كنا غافلين أو طامعين، فقد نطلق العنان لقوة قد تفلت من أيدينا. الخيار لنا، والمسؤولية علينا.