رطم الصدام بين قوة الذكاء الاصطناعي والمعايير الديمقراطية – Securities.io
اتصل بنا للحصول على مزيد من المعلومات

الذكاء الاصطناعي

الصدام بين قوة الذكاء الاصطناعي والمعايير الديمقراطية

mm

تلتزم Securities.io بمعايير تحريرية صارمة، وقد تتلقى تعويضات عن الروابط المُراجعة. لسنا مستشارين استثماريين مُسجلين، وهذه ليست نصيحة استثمارية. يُرجى الاطلاع على كشف التابعة لها.

صورة واقعية مقسمة لوجه رقمي متوهج بتقنية الذكاء الاصطناعي متصل بخطوط الشبكة العصبية بمبنى الكابيتول الأمريكي المضاء عند الغسق، مما يرمز إلى حوكمة الذكاء الاصطناعي والمؤسسات الديمقراطية.

مع ازدياد انتشار تقنيات الذكاء الاصطناعي وتطورها، بات من الصعب إيجاد توازن بين القيم الديمقراطية والتقدم التكنولوجي. فمن جهة، أصبح من السهل على الناس مشاركة رؤاهم مع الجماهير.

مع ذلك، يفتقر الذكاء الاصطناعي إلى الضوابط، مما يعني أنه يتجاوز باستمرار حدود جميع المعايير الاجتماعية تقريبًا. إليكم كيف يواصل مطورو الذكاء الاصطناعي محاولاتهم لخلق انسجام بين قدرات الذكاء الاصطناعي والقيم الديمقراطية، ولماذا قد يكون ذلك مستحيلاً.

ملخص: تواصل الحكومة الضغط على شركات الذكاء الاصطناعي لتخفيف القيود المفروضة عليها. وقد أدى هذا الوضع إلى صراعات داخلية، ونقاشات حادة، ومواجهة شركات مثل أنثروبيك قيودًا فيدرالية على استخدامها وقرارات بالتخلص التدريجي منها.

كيف يُعيد الذكاء الاصطناعي تشكيل حماية حرية التعبير

كان للذكاء الاصطناعي أثرٌ بالغٌ على حرية التعبير. فقد سهّل على الأفراد، على سبيل المثال، ابتكار صورٍ جذابةٍ لرؤيتهم ومشاركتها مع الجمهور عبر وسائل التواصل الاجتماعي. كما خفّض تكاليف الإنتاج إلى حدٍّ كبير، مما مكّن أي منظمة من الترويج لقضيتها افتراضياً.

توفر أدوات الذكاء الاصطناعي العديد من المزايا، بما في ذلك القدرة على تعديل الرسائل وتخصيصها بسهولة لتناسب فئات سكانية محددة. كما أن محتوى الذكاء الاصطناعي يُعتبر، حتى الآن، مشمولاً بحماية التعديل الأول للدستور الأمريكي، مما يتيح للمبدعين حرية التعبير.

في المقابل، أدى الذكاء الاصطناعي إلى سيل من المعلومات المضللة. بات من الصعب أكثر من أي وقت مضى على الناس التمييز بين المعلومات الصادرة عن خبير حقيقي والمعلومات التي أنشأها برنامج حاسوبي. وللأسف، أسفر ذلك عن تآكل الثقة في الأنظمة.

كيف تُضخّم خوارزميات وسائل التواصل الاجتماعي المعلومات المضللة التي تنشرها تقنيات الذكاء الاصطناعي؟

ومما يزيد الطين بلة، أن خوارزميات وسائل التواصل الاجتماعي قد تُروّج للفيديوهات المُزيّفة بتقنية التزييف العميق، نظرًا لكونها غالبًا ما تكون أكثر إثارة للجدل، مما يؤدي إلى تفاعل أكبر. وهذا يخلق حلقة مفرغة تُعرض فيها المعلومات المُضلّلة بشكلٍ أوضح من المعلومات الحقيقية. وللأسف، لا يوجد أي قانون يُلزم بوضع علامات على المعلومات المُضلّلة التي تُنتجها تقنيات الذكاء الاصطناعي.

الذكاء الاصطناعي ومشاركة المواطنين في الأنظمة الديمقراطية

يُتيح الذكاء الاصطناعي مشاركة أوسع من جانب المواطنين، إذ تُسهّل أنظمته على الحكومة والمواطنين التواصل وتبادل الأفكار ورصد الإجماع الشعبي. كما أثبت جدواه في تلخيص التشريعات المعقدة ومشاركة البيانات الحيوية لتوعية المواطنين.

مخاطر المراقبة بالذكاء الاصطناعي ومخاوف الخصوصية الديمقراطية

هناك العديد من مخاطر المراقبة تُساهم أنظمة الذكاء الاصطناعي في تعزيز المشاركة، حيث تُتيح هذه الأنظمة تتبع الناخبين بسهولة. كما توجد أنظمة ذكاء اصطناعي قادرة على تحليل بصمتك الرقمية بالكامل وتقديم تقييم لآرائك السياسية بناءً على نشاطك على الإنترنت.

بالإضافة إلى ذلك، يمكن استخدام هذه التقنية لتحديد هوية الشخص بناءً على بصمته الرقمية أو تفضيلاته. ولا تتطلب هذه الأدوات أي إذن قضائي كما هو الحال مع التقنيات السابقة، مما يزيد من احتمالية إساءة استخدامها.

دور الذكاء الاصطناعي في الانتخابات الحديثة ونزاهة الانتخابات

يُقدّم الذكاء الاصطناعي العديد من المزايا للعملية الانتخابية. فهو يُسهّل، على سبيل المثال، مراقبة النتائج. كما تُساعد أنظمة الذكاء الاصطناعي في رصد أيّ اضطرابات تتعلق بتخويف الناخبين أو تهديدهم.

تقنية التزييف العميق بالذكاء الاصطناعي وأزمة الثقة السياسية

من بين جميع المعلومات المضللة التي تنشرها تقنيات الذكاء الاصطناعي والتي تُسبب الفوضى اليوم، تبرز المشاكل الرئيسية المتعلقة بتقنية التزييف العميق. تُمكّن هذه التقنية الأفراد من إنشاء نسخ طبق الأصل بسهولة من المسؤولين الحكوميين، أو المتخصصين في مختلف القطاعات، أو أي شخص يرغبون فيه، بما في ذلك المرشحين السياسيين.

المصدر - بي بي سي

المصدر - بي بي سي

لا تزال الفيديوهات السياسية المزيفة تُسبب مشاكل جمة للمسؤولين وتُضلل الرأي العام. تكمن المشكلة في أن هذه الفيديوهات المزيفة أصبحت شبه مُطابقة للحقيقة، ولذلك، فقد تبنتها تقريبًا جميع أنواع الجماعات التي تسعى إلى إثارة الفوضى أو زرع بذور الشك في نفوس الناس.

"عائد الكاذب" وتآكل الثقة العامة

إنّ الانتشار المتواصل لتقنية التزييف العميق المدعومة بالذكاء الاصطناعي له أثر غير متوقع آخر، ألا وهو ما يُعرف بـ"مكسب الكاذب". يشير هذا المصطلح إلى حادثة مدعومة بحقائق وأدلة حقيقية، ومع ذلك ينكرها المتهم باعتبارها تزييفًا عميقًا مدعومًا بالذكاء الاصطناعي.

تُضعف هذه الاستراتيجية الثقة في الأنظمة، وتخلق وضعاً يعجز فيه الشخص العادي عن اتخاذ قرارات مستنيرة. كما أنها تقضي على أي فرصة لنقاش عقلاني، إذ تستقطب جميع الأطراف حول المواضيع بسبب المعلومات المضللة.

أمثلة واقعية على استخدام الذكاء الاصطناعي في التزييف العميق في الانتخابات

هناك العديد من الأمثلة الحديثة على استخدام تقنية التزييف العميق لإحداث فوضى خلال الانتخابات. ومن أبرز هذه الحوادث ما وقع في 21 يناير 2024، عندما استُخدمت تقنية التزييف العميق في مكالمة آلية. وقد صُمم نظام الذكاء الاصطناعي للاتصال بالديمقراطيين المسجلين.

عندما أجابوا، صوت الرئيس جو بايدن بتقنية التزييف العميق استُخدمت لحثهم على "سيحتفظون بأصواتهم لشهر نوفمبروتشير التقارير إلى أن رسالته وصلت إلى 20,000 ألف شخص، مما أدى إلى اختيار الكثيرين عدم المشاركة في الانتخابات كما جاء في الرسالة.

عندما انتشرت التقارير عن المكالمات الآلية، فُتح تحقيق. إلا أن ذلك كان بعد انتهاء الانتخابات، ولم تُعاد أي أوراق اقتراع. هذا السيناريو ليس إلا مثالاً واحداً من بين أمثلة كثيرة تُبرز مخاطر التلاعب بالانتخابات باستخدام تقنية التزييف العميق المدعومة بالذكاء الاصطناعي.

فضيحة التزييف العميق في انتخابات سلوفاكيا 2023

وحدث مثال آخر على تدخل الذكاء الاصطناعي في الانتخابات في انتخابات سلوفاكيا 2023في هذه الحادثة، انتشر مقطع فيديو مزيف يُظهر زعيم حزب سلوفاكيا التقدمي، ميخال شيميتشكا، وهو يناقش تزوير الانتخابات. وتمّ تصنيف الفيديو لاحقاً على أنه مزيف، ولكن بعد أن حصد ملايين المشاهدات والمشاركات على منصات تيك توك وفيسبوك وتليجرام.

كيفية كشف التزييف العميق المدعوم بالذكاء الاصطناعي في عام 2026

ليس من السهل كشف التزييف العميق. ففي السابق، كانت هذه التقنية تترك الكثير من الأخطاء، مثل الرمش غير الطبيعي، والإضاءة الغريبة، أو حتى ظهور مزامنة غير صحيحة لحركة الشفاه. وتشير الأبحاث إلى أن البشر غالباً ما يكونون ضعفاء في كشف التزييف العميق عالي الجودة، حيث يكون أداؤهم في كثير من الأحيان قريباً من مستوى الصدفة، وذلك بحسب السياق وطريقة العرض.

إحدى طرق تحديد ما إذا كان الفيديو مُفبركًا بتقنية التزييف العميق هي البحث في إطارات الصور باستخدام جوجل للعثور على المحتوى الأصلي. كما سيحاولون استخدام الصوت للبحث عن أصوات غير طبيعية. في بعض الحالات، يستحيل اكتشاف التزييف العميق عالي الجودة دون استخدام أدوات تقنية متخصصة.

أفضل أدوات الكشف عن التزييف العميق بتقنية الذكاء الاصطناعي وقيودها

ومن المفارقات أن أدوات الذكاء الاصطناعي هي الخيار الأمثل عند محاولة تحديد مدى مصداقية مقطع فيديو. وتشمل هذه الخيارات ما يلي: الماسح الضوئي العميق, مدافع الواقع، مايكروسوفت مصدق الفيديو، وأكثر من ذلك.

تعتمد هذه البروتوكولات على خوارزميات خاصة مصممة لتحديد أي تناقضات أو أنماط في البكسلات الموجودة في إطارات الفيديو التي تعمل بالذكاء الاصطناعي. كما يمكن لهذه الأنظمة مقارنة هذه الحالات بالبيانات المحلية، مما يُمكّنها من الكشف عن أي تداخل من جانب الذكاء الاصطناعي.

أفضل أدوات الكشف بالذكاء الاصطناعي ليست مثالية، إذ تحتوي على بروتوكولات مثل الهوية البيولوجية حققت نسبة 98% في الاختبارات الأخيرة. لكن حقيقة أن 2% من الفيديوهات المزيفة كانت قابلة للتمييز حتى من قبل أنظمة الذكاء الاصطناعي الأخرى تُثير القلق في المستقبل.

التثقيف الإعلامي كوسيلة دفاع ضد التلاعب بالذكاء الاصطناعي

لعلّ أفضل طريقة لمكافحة التزييف العميق هي التركيز على تعزيز الوعي الإعلامي لدى عامة الناس. ومن الضروري وضع علامة إلزامية تُسهّل تحديد ما إذا كان الفيديو مُزيّفاً أم حقيقياً.

لماذا فشلت آليات التنظيم الذاتي لشركات التكنولوجيا الكبرى في إدارة الذكاء الاصطناعي؟

لقد أثبت التاريخ أن شركات التكنولوجيا عاجزة عن تنظيم نفسها ذاتيًا، إذ ينصبّ تركيزها على الربح والابتكار، وهو ما قد يأتي على حساب الخصوصية والحقيقة. ولذلك، لا يوجد سيناريو يُمكن فيه لشركة تقنية أن تمنع فعليًا وصول مقاطع الفيديو المُزيّفة بتقنية التزييف العميق إلى متابعيها.

جهود الحكومة لتنظيم الذكاء الاصطناعي في عام 2026

نظراً لعجز شركات التكنولوجيا عن توفير الحماية اللازمة ضد هذه المشكلات، بدأت الحكومات بالتدخل. إلا أن هذا الوضع ليس مثالياً، إذ لا تملك الحكومات فهماً كافياً للتكنولوجيا يمكّنها من وضع ضمانات لا تعيق الابتكار.

شركات الذكاء الاصطناعي في مواجهة الحكومة: الصدام السياسي في عام 2026

تفاقمت الفجوة بين الحكومات ومزودي خدمات الذكاء الاصطناعي خلال الأشهر القليلة الماضية. فبينما يحرص المشرعون على حماية الجمهور من التزييف العميق والمعلومات المضللة، يواصل الجيش الضغط من أجل دمج أدوات الذكاء الاصطناعي بشكل كامل في ترسانته.

أدت هذه الرغبة في استخدام هذه التقنية كجزء من سلسلة عمليات التدمير إلى العديد من المشاحنات العلنية بين الشركات والحكومة الأمريكية. فيما يلي بعض أحدث الحوادث التي تسلط الضوء على مخاطر وجوانب الحرب الإلكترونية المظلمة المحتملة.

الأنثروبولوجيا مقابل وزارة الدفاع الأمريكية

أنثروبي تخوض شركة جنرال موتورز حاليًا نزاعًا علنيًا مع وزارة الدفاع الأمريكية بشأن استخدام نموذج الذكاء الاصطناعي "كلود". ويتمحور الخلاف حول منح صلاحيات وصول غير محدودة لهذا النموذج، الأمر الذي قد يؤدي إلى استخدامه في عمليات مراقبة داخلية واسعة النطاق.

رفضت شركة أنثروبيك، التي انطلقت عام 2021، منح الوصول الكامل أيضاً بسبب مخاوف تتعلق بموثوقية أنظمة الاستهداف بالذكاء الاصطناعي. وقد وضع الرئيس التنفيذي للشركة، داريو أمودي، هذين الخطين الأحمرين، مشيراً إلى عدم الموثوقية كأحد أهم المخاوف.

القيود المقترحة من قبل شركة أنثروبيك على استخدام الذكاء الاصطناعي في المجال العسكري

في هذا الصدد، يجادل البنتاغون بأن عقد البنتاغون البالغ قيمته 200 مليون دولار يجب أن يشمل وصولاً غير مقيد. وقدّمت شركة أنثروبيك بعض التنازلات خلال المناقشة، بما في ذلك السماح باستخدام أنظمة الذكاء الاصطناعي في الصواريخ والدفاع. بل إنها صرّحت بأنها ستوافق على عمليات وكالة الأمن القومي، شريطة استبعاد المراقبة الجماعية للمواطنين الأمريكيين.

لماذا رفض البنتاغون قيود أنثروبيك؟

لكن ذلك لم يكن كافيًا لمسؤولي البنتاغون. فبعد وقت قصير من نفي شركة أنثروبيك لهذا الادعاء، حظرت إدارة ترامب استخدام منتجاتها من قبل أي منظمة فيدرالية. وعلى وجه التحديد، وصف الرئيس منتجات أنثروبيك بأنها "خطر على الأمن القومي". كما أشارت التقارير المتعلقة بالنزاع إلى قانون الإنتاج الدفاعي كأداة ضغط محتملة، مع ضرورة توخي الحذر عند شرح الأساس القانوني الدقيق ما لم يُقتبس مباشرةً من الأمر.

هذه المناورة تعني أن شركة أنثروبيك لن تتمكن من الحصول على أي عقود عسكرية أو حكومية في المستقبل، مما يضع الشركة في وضع محفوف بالمخاطر حيث يتعين عليها الاختيار بين معتقداتها الأساسية والربح.

كيف استجابت OpenAI و xAI لتحول البنتاغون

سارعت شركة OpenAI المنافسة لشركة Anthropic إلى سدّ الفراغ الذي تركته Anthropic، متعهدةً بالامتثال الكامل لمتطلبات البنتاغون. وبناءً على ذلك، وقّعت الشركة اتفاقية سرية مع الحكومة، تتضمن استخدامًا قانونيًا غير مقيد لنظام الذكاء الاصطناعي الخاص بها.

التطبيقات العسكرية الحالية للذكاء الاصطناعي

توجد بالفعل أمثلة عديدة لأنظمة الذكاء الاصطناعي التي تُسهم في تسريع وتيرة الحروب وتوسيع نطاقها. وقد صُممت هذه الأنظمة لتعمل بتناغم مع العدد المتزايد من الأنظمة ذاتية التشغيل، مثل تقنية الطائرات المسيّرة الجماعية.

يُنظر إلى الذكاء الاصطناعي على أنه عاملٌ مُغيّرٌ لقواعد اللعبة، لقدرته على دمج البيانات من مجموعة هائلة من أجهزة الاستشعار لتوفير استهداف أسرع وأكثر فعالية. كما أنه بالغ الأهمية في قطاعي الخدمات اللوجستية والمالية في الجيش، حيث يُسهم في ضمان التزام الصيانة الوقائية وغيرها من المهام الرئيسية بالجدول الزمني المحدد.

استخدام إسرائيل لأنظمة الاستهداف بالذكاء الاصطناعي في غزة

برز استخدام أنظمة الاستهداف بالذكاء الاصطناعي في حملة إسرائيل على غزة. وقد استفادت هذه العمليات من أدوات مثل لافندر للربط بين تحركات الشخص وسلوكياته العسكرية المحتملة.

مكّنت هذه الأداة الجيش الإسرائيلي من تتبع مقاتلي حماس ذوي الرتب الدنيا واستهدافهم قبل قصف منازلهم. والجدير بالذكر أن النظام، بحسب تقارير عسكرية إسرائيلية، يعاني من نسبة خطأ تبلغ 10%، إلا أن هذه النسبة محل جدل كبير.

شرح نظام الاستهداف بالذكاء الاصطناعي "الإنجيلي"

أداة ذكاء اصطناعي إسرائيلية أخرى أطلقت عليها اسم الإنجيل تم إعداد النظام لتوفير 100 هدف يوميًا. ويقوم بمقارنة التحركات والبيانات الأخرى لتحديد مواقع المباني المحتملة التي قد تضم مقاتلين معادين. غالبًا ما يُستخدم هذا النظام مع "أين أبي؟ برنامج ذكاء اصطناعي يمكّن من التتبع الذاتي للأفراد الذين تم تحديدهم.

الذكاء الاصطناعي في إنفاذ القانون: الكشف عن التهديدات ومخاطر الخصوصية

يُعدّ استخدام أنظمة الذكاء الاصطناعي في إنفاذ القانون موضوعًا آخر مثيرًا للجدل. وقد فوجئ الكثيرون عندما علموا أن أنظمة ChatGPT قد رصدت... منفذ مجزرة تومبلر ريدج في كندا، جيسي فان روتسيلار، باعتباره تهديدًا محتملاً.

على وجه التحديد، رصد نظام الذكاء الاصطناعي انتهاكات للسياسة قبل ثمانية أشهر، حيث طرح المستخدم استفسارات متكررة تتعلق بالعنف المسلح. أُحيل الاستفسار إلى عدة مراجعين بشريين، مما أدى إلى حظر الحساب ووضع علامة على المستخدم.

لماذا تفشل أنظمة التنبيه بالذكاء الاصطناعي في كثير من الأحيان في تحفيز التدخل؟

رغم التحذيرات المُعلنة، تُصرّح الشركة بأن الحساب لم يتجاوز عتبة ما تعتبره تهديدًا فعليًا. ولذلك، لم يتم إبلاغ السلطات. ولو تم إبلاغها، لكان بإمكانها استجواب ثمانية أشخاص وإنقاذ ثمانية أرواح في العاشر من فبراير عام ٢٠٢٦.

ومن المثير للاهتمام أن سجلات الشركة الداخلية تُظهر وجود نقاش حول إبلاغ السلطات بعد حظر الحساب. وكُشف لاحقاً أن مطلق النار أنشأ حساباً آخر للتحايل على الحظر قبل هجماته.

يؤكد المسؤولون الحكوميون أن شركة OpenAI كانت مسؤولة عن إبلاغ السلطات بالمحادثة المشبوهة، ولو فعلت ذلك لكان من الممكن إنقاذ أرواح. في المقابل، صرّحت الشركة بأنها ستُحسّن من مشاركة البيانات وسرعة الاستجابة، وستُخفّض معاييرها.

رسالة أخلاقيات الذكاء الاصطناعي "لن ننقسم"

في "رسالة: لن ننقسمتُعدّ هذه الرسالة دعوةً مفتوحةً لموظفي الذكاء الاصطناعي لمعارضة الأسلحة ذاتية التشغيل بالكامل وعمليات المراقبة الجماعية علنًا، والضغط من أجل التزامات أمنية قابلة للتنفيذ في جميع أنحاء القطاع. وتحثّ الرسالة مطوّري الذكاء الاصطناعي على عدم دعم الأسلحة ذاتية التشغيل بالكامل أو عمليات المراقبة الجماعية بأي شكل من الأشكال.

كما يُنشئ النظام قائمةً بخطوط أمان مشتركة مصممة لمنع سيناريوهات الذكاء الاصطناعي الخارجة عن السيطرة. تتضمن هذه الإرشادات بنودًا مثل إشراك عنصر بشري للإشراف والموافقة على أي أنشطة قاتلة. كما يُشجع النظام على الشفافية لمنع إساءة الاستخدام.

الهدف الأساسي من الرسالة هو وضع مجموعة من المعايير الأخلاقية التي يمكن لجميع شركات الذكاء الاصطناعي اتباعها لمنع هذه التقنية من تحويل حياة الناس إلى جحيم. وتأتي هذه الرسالة في منعطف حاسم في تبني الذكاء الاصطناعي، حيث أصبحت الجيوش تعتمد على هذه التقنية في عمليات الاستهداف وجمع المعلومات.

موقف شركات الذكاء الاصطناعي الكبرى من استخدام الحكومة والجيش

عند دراسة هذين السيناريوهين المختلفين تمامًا، يتضح كيف تواصل شركات الذكاء الاصطناعي دمج عملياتها مع الوكالات الحكومية. ويتطلب هذا الدمج تحقيق توازن دقيق بين القدرات والضمانات والشفافية لمنع إساءة الاستخدام. إليكم الموقف الحالي لكل شركة من العمليات الحكومية.

اسحب للتمرير

مزود موقف حالة التعاقد
أنثروبي وصول محدود الاستخدام الفيدرالي مقيد / تم التخلص منه تدريجياً
جوجل دعم كامل للمؤسسات تم الإبلاغ عن عقود CDAO بقيمة 200 مليون دولار تقريبًا.
OpenAI عمليات النشر "الاستخدام القانوني" (الضمانات المزعومة) تم الإبلاغ عن عمليات نشر دفاعية
xAI تم الإبلاغ عن استعداد "للاستخدام القانوني". أفادت الحكومة

أنثروبي

التزمت شركة أنثروبيك بمعاييرها الأساسية، ساعيةً إلى وضع حدود صارمة على استخدامات الاستهداف الذاتي والمراقبة الجماعية. ومع ذلك، يبدو أنها تدفع ثمناً باهظاً لالتزامها بهذه المعايير، حيث اتخذت الوكالات الفيدرالية إجراءات لتقييد أو إلغاء استخدام نماذجها تدريجياً في بيئات معينة.

OpenAI

تُؤيد OpenAI بشدة التكامل مع الحكومات. وقد سعت الشركة جاهدةً لتعزيز مكانتها عندما خسرت شركة Anthropics عقدها مع وزارة الدفاع الأمريكية بسبب تمسكها بمهامها الأساسية. وقد وافقت OpenAI على نشر نماذجها في البيئات الدفاعية ضمن إطار "الاستخدام القانوني". وتؤكد الشركة أنها تحظر المراقبة الجماعية المحلية وتُلزم بالمسؤولية البشرية عن استخدام القوة.

xAI

لطالما كانت شركة xAI التابعة لإيلون ماسك من أشد المؤيدين لدمج الذكاء الاصطناعي في العقيدة العسكرية. وتشير التقارير إلى أن xAI أبدت استعدادها لدعم عمليات نشر حكومية سرية بموجب شروط "الاستخدام القانوني"، على الرغم من أن التفاصيل التشغيلية لا تزال محدودة.

جوجل

جوجل (GOOGL ) شهدت الشركة نقاشات داخلية واسعة النطاق حول استخدام نظامها في الحروب. وقد وقّع أكثر من 300 موظف أساسي في الشركة على رسالة مفتوحة تحثّ مزودي خدمات الذكاء الاصطناعي على رفض العقود المفتوحة مع البنتاغون. ومع ذلك، تمتلك جوجل عقودًا بقيمة تزيد عن 200 مليون دولار أمريكي في مجال تطوير وصيانة أنظمة الذكاء الاصطناعي، مما يعني أنها تتعرض لضغوط كبيرة للتراجع عن موقفها.

المستثمر: تُعدّ حوكمة الذكاء الاصطناعي ميزة تنافسية بارزة. فالشركات التي تلتزم بالأطر التنظيمية مع الحفاظ على قدرتها الابتكارية، يُرجّح أن تحصل على عقود حكومية طويلة الأجل وثقة المؤسسات. أما الشركات المعرضة لمخاطر التزييف العميق أو الجدل الدائر حول المراقبة، فقد تواجه تحديات تتعلق بسمعتها والتزاماتها.

آخر أخبار وأداء جوجل (GOOGL)

مستقبل حوكمة الذكاء الاصطناعي والاستقرار الديمقراطي

عند دراسة دمج أنظمة الذكاء الاصطناعي في مختلف المجالات، من العمليات الحكومية إلى العسكرية، يتضح جلياً الحاجة إلى بعض الضوابط. فقد اكتسبت هذه الأنظمة قوة هائلة على الصعيدين التقني والاجتماعي. ونأمل أن تُدرك شركات الذكاء الاصطناعي أهمية الفصل بين جوانب عملها والسياسات الأخلاقية، وأن تلتزم بالمعايير الأخلاقية قبل فوات الأوان. ففي الوضع الراهن، يبدو أن الربح هو المنتصر في هذا السباق.

تعرف على تطورات الذكاء الاصطناعي الأخرى اضغط هنا.

ديفيد هاميلتون هو صحفي متفرغ ومهتم بالبيتكوين منذ فترة طويلة. وهو متخصص في كتابة المقالات حول blockchain. تم نشر مقالاته في العديد من منشورات البيتكوين بما في ذلك Bitcoinlightning.com

المعلن الإفصاح: تلتزم Securities.io بمعايير تحريرية صارمة لتزويد قرائنا بمراجعات وتقييمات دقيقة. قد نتلقى تعويضًا عند النقر فوق روابط المنتجات التي قمنا بمراجعتها.

ESMA: العقود مقابل الفروقات هي أدوات معقدة وتنطوي على مخاطر عالية لخسارة الأموال بسرعة بسبب الرافعة المالية. ما بين 74-89% من حسابات مستثمري التجزئة يخسرون الأموال عند تداول عقود الفروقات. يجب عليك أن تفكر فيما إذا كنت تفهم كيفية عمل عقود الفروقات وما إذا كان بإمكانك تحمل المخاطر العالية بخسارة أموالك.

إخلاء المسؤولية عن النصائح الاستثمارية: المعلومات الواردة في هذا الموقع مقدمة لأغراض تعليمية، ولا تشكل نصيحة استثمارية.

إخلاء المسؤولية عن مخاطر التداول: هناك درجة عالية جدًا من المخاطر التي ينطوي عليها تداول الأوراق المالية. التداول في أي نوع من المنتجات المالية بما في ذلك الفوركس وعقود الفروقات والأسهم والعملات المشفرة.

هذا الخطر أعلى مع العملات المشفرة نظرًا لكون الأسواق لا مركزية وغير منظمة. يجب أن تدرك أنك قد تفقد جزءًا كبيرًا من محفظتك الاستثمارية.

Securities.io ليس وسيطًا أو محللًا أو مستشارًا استثماريًا مسجلاً.