الدرس السابع: الاستخدامات الضارة والممنوعة - عندما يتحول الذكاء الاصطناعي إلى أداة خطر
لم يكن الذكاء الاصطناعي يومًا مشكلة في ذاته، بل تكمن المشكلة في الطريقة التي يوجَّه بها. وكل اختراع مرّ بتاريخ الإنسان أثبت هذه الحقيقة مرارًا: فالنار التي كانت نورًا وحياة، كانت في اللحظة نفسها قادرة على أن تتحول إلى جحيم إذا خرجت عن السيطرة. والآلة التي اخترعها الإنسان لتسهّل عمله في الحقول، تحولت يومًا ما إلى آلة حرب. ومع الذكاء الاصطناعي يتكرر المشهد نفسه؛ أداةٌ صُمّمت لتساعد الإنسان في الفهم، والتحليل، والإبداع، لكنها قد تنقلب إلى مصدر خطر إذا استُخدمت بغير وعي.
ويكمن الخطر اليوم في صورٍ قريبة أكثر مما نتخيل. ليست هي الروبوتات العملاقة التي تصوّرها السينما، بل ممارسات بسيطة تتسلل إلى حياتنا دون أن ننتبه إليها. صورةٌ مزيفة تنتشر فتربك الناس، خبرٌ مصنوع يبدو حقيقيًا حدّ الإقناع، خوارزمية تُظهر جانبًا من الحقيقة وتغيب جانبًا آخر، نظامٌ يتخذ قرارًا حساسًا دون أن يمر بعين بشرية واحدة. هنا يتوقف الإنسان قليلًا ليتساءل: من يحدد الحدود؟ ومن يضمن ألا تتجاوز التقنية ما خُلقت لأجله؟
وعندما نفصل بين المفاهيم، ندرك أن هناك فرقًا بين الاستخدام الضار والاستخدام الممنوع. فالضرر قد يقع حتى قبل أن يلتفت القانون إليه. قد ينشر شخص مقطعًا مزيفًا ساخرًا، فيراه البعض مجرد لعبٍ رقمي لا يضر أحدًا، لكن شخصًا آخر يراه اعتداء على كرامته أو تشويهًا لصورة شخصٍ يحترمه. وقد تنتشر مقاطع مشابهة فتخلق فوضى في الرأي العام قبل أن تتمكن القوانين من ملاحقتها. فالقانون يسير بخطوات محسوبة، بينما تسير التقنية بخطوات واسعة سريعة، فتسبق الأخلاق القانون دائمًا، وتنبهنا إلى عواقب لم تُكتب بعد في أي تشريع.
ويزداد المشهد تعقيدًا عندما نرى تنوع الاستخدامات الضارة. فهناك التزييف العميق؛ تلك التقنية التي تستطيع أن تصنع صورًا ومقاطع فيديو تبدو حقيقية لدرجة تربك العين والعقل معًا. يُمكن لهذه التقنية أن تُظهر شخصًا يقول ما لم يقله، ويقوم بما لم يفعله، فتتشكل روايات كاملة على أساس باطل، وتُزرع الشكوك داخل المجتمعات بسهوله عجيبة. وما تلبث هذه الصور أن تنتشر حتى تصبح جزءًا من ذاكرة الناس، وكأنها حدثت بالفعل.
ثم تظهر أمامنا الهجمات السيبرانية المؤتمتة. نماذج تتعلم كيف تبتكر فيروسات جديدة، أو تخترق شبكات بأشكال لا يستطيع الإنسان مجاراتها بنفس السرعة. هنا لا نتحدث عن شخص يحاول دخول حساب أحدهم، بل عن أنظمة قادرة على تكرار الهجوم آلاف المرات في لحظة واحدة، مما يجعل الخطر مضاعفًا، والضرر أوسع وأكثر أثرًا.
ويتوسع المشهد ليشمل التلاعب بالمعلومات والرأي العام. ففي عالمٍ تغمره البيانات، يكفي أن تُنتج آلة سلسلة من الرسائل المقنعة لتزرع الشك بين الناس، أو تُحرّض جماعة على أخرى، أو تُشكّل رأيًا سياسيًا دون أن يلحظ أحد اليد الخفية التي تقف خلف هذا التوجيه. إنها آلة تستطيع أن تتحدث بلسان كل فرد، وتستخدم لغته، وتهتم بما يهتم به، مما يجعلها قادرة على التأثير بعمق يخيف المختصين قبل العامة.
ثم يأتي الاستخدام الأكثر حساسية: الاستخدام العسكري الهجومي. طائرات تتحرك وفق خوارزميات دقيقة، وأنظمة قتالية تتخذ القرارات بناء على تحليل بيانات دون وجود إنسان يشرف عليها لحظة التنفيذ. هنا يصبح السؤال أكبر من التقنية: هل يحق لآلة أن تقرر مصير حياة إنسان؟
هل يمكن أن نسمح لبرنامج أن يختار من يعيش ومن يُقتل؟ إنه أحد أعقد الأسئلة الأخلاقية في عصرنا الحديث، وكل بندٍ فيه يحمل أمثلة واقعية حدثت بالفعل، وليس مجرد تصورات نظرية.
وتزداد خطورة الذكاء الاصطناعي لأنه يتمتع بميزتين لم تجتمع من قبل في أي تقنية أخرى: السرعة والاتساع ثم الإقناع الشخصي. فالآلة قادرة على إنتاج كم هائل من المحتوى خلال ثوانٍ، سواء كان رسائل أو صورًا أو أكوادًا، مما يجعل الضرر ينتشر قبل أن يستطيع البشر اكتشافه أو الحد منه. وفي اللحظة نفسها، تستطيع هذه الآلة أن تُخاطب كل فرد بطريقة تناسب اهتماماته ومشاعره، فيتولد لديه شعور بأن ما يسمعه حقيقي وصادق، رغم أنه قد يكون خداعًا محكمًا.
أمام هذا المشهد المعقد، يصبح الحلّ ليس في إيقاف التطور، لأن العالم لن ينتظر، بل في توجيه هذا التقدم حتى يبقى في صفّ الإنسان. تظهر هنا الحاجة إلى تشريعات واضحة تحدد ما هو مسموح وما هو محظور، وإلى هيئات مستقلة تراقب تطبيقات الذكاء الاصطناعي في الإعلام والأمن والاقتصاد، وإلى تقنيات مضادة تستطيع كشف التزييف والتحقق من المحتوى، وإلى وعي مجتمعي يجعل كل فرد خط دفاع أول ضد المعلومات المزيفة. فالذكاء الاصطناعي لا يقف في صفّ الخير أو الشر، هو فقط يعكس ما نضعه نحن فيه من قيم ونوايا.
وفي النهاية، يتبين لنا أن المشكلة ليست في قدرات الذكاء الاصطناعي، بل في غياب الضوابط التي تحكمه. فإن تُرك بلا مسؤولية صار خطرًا يمتد أثره بسرعة لا يمكن السيطرة عليها، وإن وُجّه بعقلٍ ناضج صار أداة تحفظ الإنسان وتسانده وتوسع آفاقه. فالخوارزميات لا تحدد الأخلاق… بل الإنسان هو الذي يفعل ذلك.
مركز علوم الدولي (د. عبد الرحمن الزراعي)
________
هل استوعبت الدرس؟