المقالات

عرّاب الذكاء الاصطناعي: اختراع إنساني يهدّد الإنسانيّة

الكاتب:
ستريدا رائد

في خضمّ تسارع غير مسبوق في تطوير تقنيات #الذكاء_الاصطناعي، بات اليوم أكثر من أي وقت مضى لزامًا أن نقف وقفة تأمّل. ليس فقط أمام ما يمكن أن تمكّنه الآلات من إنجاز، بل أمام ما يمكن أن تغيّره في جوهر حياتنا ومجتمعاتنا.
قبل عامين فقط، بدا لعرّاب #الذكاء_الاصطناعي جيفري هينتن وآخرين أن ما يُمكن للذكاء الاصطناعي تحقيقه من قدرات شبه بشرية هو إنجاز علمي محض. أما اليوم في 2025 فنرى أبعادًا أوسع، من أنظمة مراقبة فورية إلى تنظيمات تشريعية تُعِد لوضع حدود لما يُسمى “الذكاء العام”.
ومن الثورة التقني، إلى أدوات ذات تأثير اجتماعي عميق. إذ تَسارع تطوّر #الذكاء_الاصطناعي إلى درجةٍ أصبح فيها من العسير التمييز بين الصور ومقاطع الفيديو الحقيقيّة وتلك المُولّدة آليًا. وأصبحت أنظمته الحديثة قادرة على توليد صور وفيديوهات واقعية لدرجة تجعل التفريق بين الحقيقي والمزيّف صعبًا. هذا الأسلوب يُستخدم اليوم ليس فقط للترفيه، بل أيضًا في تضليل إعلامي أو #ابتزاز_إلكتروني أو تزوير وثائق رقمية.
كما أعادت عبض الدول إطلاق تجارب واسعة على المراقبة باستخدام تقنية التعرف على الوجوه، تزامنًا مع توسّع استخدام #الذكاء_الاصطناعي في الأمن. وفي بريطانيا مثلاً، أعلنوا مؤخرًا عن توسيع منظومة التعرف على الوجوه عبر الشرطة، ما أثار جدلًا واسعًا حول الخصوصية وحرّية الأفراد.
أمّا في عام 2025، فتوقعت بعض الدراسات أن #الذكاء_الاصطناعي لن يقتصر على مهام بسيطة أو روتينية، بل سيشق طريقه نحو مهن أكثر تخصصًا. الأمر يضع ضغطًا متصاعدًا على أنظمة التعليم والعمل لإعادة تأهيل القوى البشرية.

وإدراكًا لهذه المخاطر وكذلك الفرص، بدأ العالم يتحرّك على مستوى القوانين والسياسات. إذ دخل نظام الإتحاد الأوروبيEU Artificial Intelligence Act حيّز التنفيذ، حيث فرض قيودًا واضحة على استخدام تطبيقات عالية المخاطر مثل التعرف الجماعي على الوجوه، التصنيف الاجتماعي (social scoring)، أو خوارزميات تستهدف التلاعب بسلوك الأفراد عبر الإنترنت.
وعلى المستوى العالمي، أُطلق الاتحاد الدولي للاتصالات “AI for Good 2025” وهي قمة عالمية تهدف إلى توجيه #الذكاء_الاصطناعي نحو التنمية المستدامة، مع دعوات لوضع معايير أخلاقية ومسؤولة لاستخدامه.
كما برزت تحذيرات نشرت عبر وكالت REUTERS من منظمات مستقلة تُتابع سلامة #الذكاء_الاصطناعي. ونبهت حول أن العديد من الشركات الكبرى لا تزال غير مستعدة بشكل كافٍ للتحكم في نماذج فائقة القوة ما يفتح الباب أمام استخدام ضار تحت ذريعة التقدّم التقني.

وبحال استمر #الذكاء_الاصطناعي بلا تنظيم أو حواجز، فيمكن أن يتم استخدامه:
– في أنظمة مراقبة ضخمة تخنق الحريات الفردية.
– أن يُسرّع انتشار معلومات زائفة كالصور، الصوت وفيديوهات، تخدع ملايين الناس. وقد تُستخدم لتوجيه الرأي العام أو زعزعة الثقة بالمؤسسات.
– قد يغيّر سوق العمل تمامًا، إذ قد تستبدل المهن التي كانت يومًا تتطلب مهارة بشرية بالآلات . ما يعني بطالة واسعة إذا لم تُواكب الدول التحوّل بسياسات إعادة تدريب وتوظيف.
والأسوأ من ذلك، ووفقًا لما صدر عن منظمة TRENDS Research & Advisory في 24 سيتمبرمن هذا العام، أن هناك إمكانيات لتوظيف #الذكاء_الاصطناعي في أبحاث بيولوجية متقدمة، مما يثير مخاوف من سباق تسلّح بيولوجي، خصوصًا إذا وقعت هذه التقنيات في أيدي جهات غير مسؤولة.

#الذكاء_الاصطناعي ليس شرًّا مطلقًا. بل هو أداة، ويمكن أن يكون منارة إنسانية في الطبّ، التعليم، البيئة، الخدمات وغيرها، لكن بشرط:
• حوكمة واضحة، فتشريعات مثل EU AI Act تمثل خطوة مهمة، لكن يجب أن تُصاحب برؤية عالمية.
• شفافية من شركات التكنولوجيا، كنشر تقارير تقييم المخاطروفرض معايير أمن وسلامة قبل نشر أي نموذج قوي.
• وعي مجتمعي وثقافة تقنية، فالناس تحتاج أن تفهم ما يستخدم من أدوات، ما مخاطرها وكيف تحمي خصوصيتها.
• استراتيجيات تعليم وتدريب، كي لا يُترك العمال ليُطهَروا من سوق العمل فجأة، بل تُمنَح لهم فرص تعلم مهارات جديدة تتلاءم مع العصر.
في النهاية، يبقى الذكاء الاصطناعي من أعظم الابتكارات الإنسانيّة الّتي تجمع بين وعد الابتكار وخطر الانحراف عن مساره الأخلاقيّ. هذه الأداة قادرةٌ على توسيع آفاق المعرفة، وتحويل الحياة البشرية إلى تجربةٍ أكثر سهولةٍ وإنتاجيّةٍ، إلا أنّها تهدّد خصوصيتنا، وتقلب الوظائف التقليديّة رأسًا على عقب، بل قد تُستغلُّ في تطوير أدواتٍ بيولوجيّةٍ أو تقنياتٍ أخرى تدفع الإنسان نحو الهاوية. لذلك، يحثّ هينتون على يقظةٍ عالميّةٍ، وتنظيمٍ صارمٍ، ومسؤوليّةٍ أخلاقيّةٍ مشتركةٍ، لضمان استمرار هذا التقدّم العلمي كوسيلةٍ للخدمة الإنسانيّة وإثرائها، لا كتهديدٍ لوجودها واستقرارها

Tags

النشرة الإخبارية

اشترك في النشرة الإخبارية لدينا حتى لا تفوتك أحدث الأفكار والأخبار الأمنية.

مقالات مماثلة

اللغات: