موقع طرطوس

خبراء الذكاء الاصطناعي يدعون لتنظيم هذه التكنولوجيا

وقع خبراء الذكاء الاصطناعي والمديرون التنفيذيون في الصناعة -بما في ذلك أحد رواد التكنولوجيا يوشوا بنجيو- على رسالة مفتوحة تدعو إلى مزيد من تنظيم إنشاء التزييف العميق، مشيرين إلى المخاطر المحتملة على المجتمع، بحسب وكالة رويترز.

وقالت المجموعة في الرسالة التي جمعها أندرو كريتش الباحث بجامعة كاليفورنيا في بيركلي وأحد خبراء الذكاء الاصطناعي “اليوم، غالبا ما يتضمن التزييف العميق صورا جنسية أو احتيالا أو معلومات مضللة سياسية. وبما أن الذكاء الاصطناعي يتقدم بسرعة ويجعل إنشاء التزييف العميق أسهل بكثير، فإن هناك حاجة إلى ضمانات”.

والتزييف العميق عبارة عن صور وتسجيلات صوتية ومقاطع فيديو واقعية ولكنها ملفقة أُنشئت بواسطة خوارزميات الذكاء الاصطناعي، وقد جعلت التطورات الحديثة في التكنولوجيا تمييزها عن المحتوى الأصلي أمرا بالغ الصعوبة.

وتقدم الرسالة -التي تحمل عنوان “تعطيل سلسلة توريد التزييف العميق”- توصيات بشأن كيفية تنظيم التزييف العميق، بما في ذلك التجريم الكامل للمواد الإباحية العميقة المتعلقة بالأطفال، وفرض عقوبات جنائية على أي فرد يقوم عن عمد بإنشاء أو تسهيل انتشار التزييف العميق الضار، ومطالبة شركات الذكاء الاصطناعي بمنع منتجاتهم من إنشاء صور مزيفة ضارة.

ووقع على الرسالة -حتى صباح أمس الأربعاء- أكثر من 400 شخصية من مختلف الصناعات، بما في ذلك الأوساط الأكاديمية والترفيهية والسياسية.

وكان من بين الموقعين ستيفن بينكر أستاذ علم النفس بجامعة هارفرد، وجوي بولامويني مؤسس رابطة العدالة الخوارزمية، ورئيسا إستونيا السابقين، وباحثون في غوغل، وباحث في شركة ديب مايند الجديدة، وباحث من أوبن إيه آي.

ومنذ أن كشفت “أوبن إيه آي” المدعومة من مايكروسوفت عن “شات جي بي تي” أواخر عام 2022، والتي أذهلت المستخدمين من خلال إشراكهم في محادثات شبيهة بما يقوم به الإنسان وأداء مهام أخرى، كان ضمان عدم إلحاق أنظمة الذكاء الاصطناعي الضرر بالمجتمع أولوية بالنسبة للمنظمين.

وهذه الرسالة ليست الأولى، فقد كانت هناك تحذيرات متعددة من أفراد بارزين بشأن مخاطر الذكاء الاصطناعي، ولا سيما رسالة وقعها إيلون ماسك العام الماضي دعت للتوقف 6 أشهر في تطوير أنظمة ذكاء اصطناعي أقوى من نموذج “جي بي تي 4” الخاص بشركة “أوبن إيه آي”.

Exit mobile version