logo svglogo svglogo svglogo svg
  • الرئيسية
  • من نحن
  • خدماتنا
  • المقالات
  • تواصل معنا
  • انضم إلينا
  • English
  • Türkçe
✕
  • الرئيسية
  • infografik
  • هل يمكن الوثوق بشركات التكنولوجيا في حوكمة الذكاء الاصطناعي؟
فرص واعدة للاستثمار في محطات شحن السيارات الكهربائية في تركيا !
29/03/2023
15 سبباً لفشل القادة، وماذا يجب فعله حيال ذلك !
01/04/2023

هل يمكن الوثوق بشركات التكنولوجيا في حوكمة الذكاء الاصطناعي؟

نُشرت من قبل Business Insight في 30/03/2023
الفئات
  • infografik
  • إحصائيات وأرقام
الوسوم
  • AI
  • artificial_intelligence
  • ChatGPT
  • instagram
  • Microsoft
  • الذكاء_الاصطناعي

 سرعان ما تحولت أدوات الذكاء الاصطناعي التي تواجه الجمهور، بما في ذلك التطبيقات المستندة إلى النصوص مثل ChatGPT أو نماذج تحويل النص إلى صورة مثل Stable Diffusion أو Midjourney أو DALL-E 2 ، إلى مثار جدل كبير من حيث المسائل التنظيمية والقانونية والمتعلقة بالخصوصية عبر الإنترنت. تقوم الجهات الخبيثة بالفعل بارتكاب جرائم جنائية وتنشر معلومات مضللة ومزيفة مدعومة بقدرات الذكاء الاصطناعي التوليدي ، حيث تكافح الحكومات الوطنية لمواكبة الوتيرة المتسارعة لهذه التقنية، بينما تحيل الشركات اللوم على المستخدمين الفرديين!

كما أظهر استطلاع أجرته KPMG Australia وجامعة كوينزلاند ، لا يثق عامة الناس بالفعل في المؤسسات الحكومية للإشراف على تنفيذ الذكاء الاصطناعي.

استطلعت الدراسة رأي أكثر من 17000 شخص في 17 دولة ، ووجدت أن ثلث المستجيبين فقط لديهم ثقة عالية أو كاملة في الحكومات فيما يتعلق بتنظيم وحوكمة أدوات وأنظمة الذكاء الاصطناعي. وأظهرت نتائج الاستطلاع شكوك المشاركين في شركات التكنولوجيا والهيئات التنظيمية الحالية كهيئات حاكمة في مجال الذكاء الاصطناعي، بينما اعتبروا المؤسسات البحثية والجامعات وقوات الدفاع والأمن الأكثر كفاءة في هذا الصدد.

على الرغم من أن الأشخاص الذين شملهم الاستطلاع أظهروا شكوكًا في الحكومات، إلا أنه كان يُنظر إلى الهيئات فوق الوطنية مثل الأمم المتحدة بشكل أكثر إيجابية. تعد المفوضية الأوروبية حاليًا الجهاز الوحيد في هذه الفئة الذي صاغ قانونًا يهدف إلى الحد من تأثير الذكاء الاصطناعي وضمان حماية حقوق الأفراد. تم اقتراح ما يسمى بقانون الذكاء الاصطناعي في أبريل 2021 ولم يتم اعتماده بعد. يصنف القانون المقترح تطبيقات الذكاء الاصطناعي إلى فئات مخاطر مختلفة. على سبيل المثال ، سيصبح الذكاء الاصطناعي الذي يهدف إلى التلاعب بالرأي العام أو جني الأرباح من الأطفال أو الفئات الضعيفة غير قانوني في الاتحاد الأوروبي. تخضع التطبيقات عالية الخطورة ، مثل برامج البيانات البيومترية ، لقيود قانونية صارمة. انتقد الخبراء مسودة السياسة لثغراتها الواضحة وتعريفاتها الغامضة.

سلسلة: #إحصائيات_وأرقام

منشور: #148 

763

إذا وجدت هذه المعلومات مفيدة، يرجى مشاركتها على وسائل التواصل الاجتماعي 🙂
إن كان لديك رأي، ملاحظاتك محل تقدير كبير! قم بالتعليق هنا أو اتصل بنا 📞
00905526459110
info@abinsight.net
يمكنك متابعة المزيد عن هذا الموضوع ومواضيع أخرى تخص إدارة وتطوير الأعمال على:
حسابنا على لينكد إن
https://lnkd.in/eycXed87
قناتنا على التلغرام
https://t.me/B_Insight

إنفوغرافيك

شارك مع اصدقائك
       
Share
24
Business Insight
Business Insight

مقالات ذات صلة

29/09/2023

إحصائيات التجارة الخارجية في تركيا – أغسطس 2023


قراءة المزيد
25/09/2023

عقدة الشعر الرمادي Grey Hair Complex


قراءة المزيد
16/09/2023

وهم الأغلبية Majority Illusion


قراءة المزيد

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

خبراء تطوير الأعمال

عنوان الشركة

مكتب اسطنبول
مكتب 1
Kayabaşı Mahallesi Merkez ,Kayabaşı Mahallesi Kayaşehir Bulvarı N.36/b b-2 blok zemin dukkan 80, b/36 Kayaşehir, 34494 Başakşehir/İstanbul
مكتب 2
Maltepe Mahallesi Eski Çırpıcı Yolu Street No:8 Floor: 14 Flat:176 Parima Plaza Zeytinburnu / Istanbul 34010

مكتب غازي عنتاب
İncili Pınar Mahallesi Ali Fuat Cebesoy Bulvarı N.17 Adıgüzeller İş Merkez Kat:3 Daire:16, Şehitkamil/Gaziantep

تواصل معنا

البريد الالكتروني
info@abinsight.net

الهاتف
905526459110+


النشرة البريدية

اشترك بالنشرة البريدية لتحصل على آخر المقالات المنشورة

© جميع الحقوق محفوظة شركة | Business Insight |