معلومات

Huawei: تحديات الذكاء الاصطناعي وحماية البيانات والاستجابات مع منظمي البيانات

Huawei: تحديات الذكاء الاصطناعي وحماية البيانات والاستجابات مع منظمي البيانات


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

لقد غيرت كل تقنية معطلة في تاريخ البشرية العالم بطريقة أو بأخرى. في حالة الذكاء الاصطناعي (AI) ، يتفق محللو الصناعة على حقيقة أن الذكاء الاصطناعي لديه القدرة على تغيير كل صناعة على وجه الأرض وكذلك كل منظمة. على الرغم من أن الصناعة لا يبدو أن لديها تعريفًا موحدًا للذكاء الاصطناعي ، إلا أن الخصائص الأساسية للذكاء الاصطناعي تشمل التعامل مع الأهداف المعقدة ، وجمع كمية مختلفة من البيانات والجمع بينها ، واستخراج المعلومات والمعرفة ، والتعلم بشكل مستقل ، واتخاذ قرارات آلية على مستويات مختلفة مختلفة.

يشمل النوعان الرئيسيان من تطبيقات الذكاء الاصطناعي على المستوى التجاري تطبيقات المؤسسات الداخلية ، والتي تُستخدم لتحسين كفاءة العمل في المؤسسة ، والتطبيقات التي تمكّن الصناعات العمودية إما من تحسين الأتمتة ، أو تعزيز القدرات ، أو إلهام الابتكار ، أو مزيج منها.

يمكننا التمييز بين أربعة أدوار رئيسية للأنشطة التي تتضمن الذكاء الاصطناعي:

  • المستهلكون / العملاء

  • الناشرون

  • موفرو الحلول

  • جامعي البيانات

هذه هي الخصائص والتطبيقات وأنشطة الذكاء الاصطناعي التي توفر الأساس لحوكمة أمن الذكاء الاصطناعي وحماية الخصوصية ، وفقًا لشركة Huawei.

ومع ذلك ، فإن جلب فرص ومزايا كبيرة ليس سوى جانب واحد من العملة. تمتلك هذه التكنولوجيا للأغراض العامة المثيرة ، فضلاً عن التحدي ، جانبًا مظلمًا: مع ذلك ، التحديات في الأمان وحماية الخصوصية. وفقًا لهواوي ، يعتمد التطور الصحي للذكاء الاصطناعي على إدارة أمن الذكاء الاصطناعي وحماية الخصوصية.

مؤخرا، هواوي و جامعة بكين للمعلمين مع منظمي البيانات في الاتحاد الأوروبي والمملكة المتحدة وهونغ كونغ ، دعا الحكومات والمنظمات القياسية والصناعات في جميع أنحاء العالم إلى التعاون لدفع تطوير بيانات الذكاء الاصطناعي (AI) وحماية الخصوصية ، فضلاً عن الجدارة بالثقة وإنشاء حماية عالمية للبيانات معايير الذكاء الاصطناعي. تأمل Huawei في إجراء مزيد من المناقشات حول التحديات التي يطرحها الذكاء الاصطناعي على حماية البيانات في مناطق مختلفة ، بالإضافة إلى إثارة الأفكار والتقدم السياسي للجهات التنظيمية.

جون سوفولك، مسؤول الأمن السيبراني العالمي والخصوصية في Huawei ، عرض ممارسات Huawei لحماية الخصوصية ، بما في ذلك أمن الذكاء الاصطناعي وحوكمة حماية الخصوصية في منظمة العفو الدولية وحماية البيانات: حدث جانبي للاستجابة العالمية للتحدي العالمي في المؤتمر الدولي الحادي والأربعون لمفوضي حماية البيانات والخصوصية (ICDPPC) ، موضوع التقارب والاتصال ، رفع معايير حماية البيانات العالمية في العصر الرقمي ، استضافت في تيرانا ، عاصمة ألبانيا في وقت سابق من هذا الشهر.

وقال إن التكنولوجيا تنتقل بسرعة إلى ما وراء السياسات والأطر القانونية الحالية ، لا سيما في مجال الذكاء الاصطناعي. وقال أيضًا إنه لا ينبغي أن ننتظر تطوير تكنولوجيا المعلومات والاتصالات لتفويض صياغة السياسات أو الأطر القانونية - بدلاً من ذلك ، يجب علينا اتخاذ إجراءات فورية لتطوير السياسات والإطار القانوني الذي يمكن أن يزيد فرص التنمية إلى أقصى حد ويمنع العواقب غير المتوقعة.

اقترحت Huawei أنه "كزخم جديد في العصر الرقمي ، فإن الذكاء الاصطناعي في حاجة ماسة إلى معالجة قضايا حماية البيانات والخصوصية ووضع معايير عالمية". تم الاعتراف بالاقتراح على نطاق واسع من قبل قادة الصناعة الذين عبروا أيضًا عن آرائهم حول التحديات التي تواجه خصوصية الذكاء الاصطناعي وحماية البيانات من منظور السياسات والقوانين والممارسات الصناعية.

في ذلك التفكير المسبق في أمن الذكاء الاصطناعي وحماية الخصوصية: حماية البيانات الشخصية وتطوير القدرات التكنولوجيةورق ابيض (بي دي إف) ، تقول Huawei إنه على الرغم من أن الذكاء الاصطناعي يحول العديد من الصناعات ، وله تأثير عميق عليها ، فلا يوجد تعريف موحد حتى الآن. توضح الورقة السمة الأساسية للذكاء الاصطناعي على النحو التالي:

  • التعامل مع الأهداف المعقدة

  • جمع ودمج كميات مختلفة من البيانات

  • استخراج المعلومات والمعرفة والتعلم بشكل مستقل

  • اتخاذ قرارات آلية على مستويات مختلفة

هل يمكننا الاتفاق جميعًا على تعريف للذكاء الاصطناعي ، من فضلك؟

  • وفقا ل الإصدار الأول من التصميم المتوافق أخلاقيًا صدر عن ورقة IEEE في عام 2019 ، يمكن تعريف الذكاء الاصطناعي بأنه "تصميم وتطوير ونشر وإيقاف تشغيل واعتماد برامج مستقلة أو ذكية عند تثبيتها في برامج و / أو أنظمة أجهزة أخرى قادرة على ممارسة الاستدلال المستقل واتخاذ القرار وتشكيل النية ، ومهارات التحفيز وفقًا لمبادئ محددة ذاتيًا ".

  • المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي الجدير بالثقة صدر عن المفوضية الاوروبيةيقول فريق الخبراء رفيعي المستوى المعني بالذكاء الاصطناعي (AI HLEG) في 2019 أيضًا أن "أنظمة الذكاء الاصطناعي (AI) هي أنظمة برمجية (وربما أيضًا أجهزة) مصممة من قبل البشر والتي ، نظرًا لهدف معقد ، تعمل في المجال المادي أو البعد الرقمي من خلال إدراك بيئتهم من خلال الحصول على البيانات ، أو تفسير البيانات المنظمة أو غير المهيكلة المجمعة ، أو التفكير في المعرفة ، أو معالجة المعلومات المستمدة من هذه البيانات ، وتحديد الإجراء (الإجراءات) الأفضل الذي يجب اتخاذه لتحقيق الهدف المحدد. يمكن للأنظمة إما استخدام قواعد رمزية أو تعلم نموذج رقمي ، ويمكنها أيضًا تكييف سلوكها من خلال تحليل كيفية تأثر البيئة بأفعالها السابقة. "

  • ورقة بيضاء حول أمن الذكاء الاصطناعي صدر بواسطة الأكاديمية الصينية لتكنولوجيا المعلومات والاتصالات (CAICT) في عام 2018 ، أن "الذكاء الاصطناعي يمكّن الآلات الذكية أو الأنظمة الذكية على الآلات. ويدرس ويطور النظريات والأساليب والتقنيات لمحاكاة الذكاء البشري وتوسيعه وتوسيعه ، وإدراك البيئة ، والحصول على المعرفة ، واستخدام المعرفة من أجل الوصول إلى أفضل النتائج. "

  • نموذج مقترح لإطار حوكمة الذكاء الاصطناعي صدر من قبل لجنة حماية البيانات الشخصية في سنغافورة (PDPC) في عام 2019 ، أن "الذكاء الاصطناعي (AI) يشير إلى مجموعة من التقنيات التي تسعى إلى محاكاة السمات البشرية مثل المعرفة ، والتفكير ، وحل المشكلات ، والإدراك ، والتعلم ، والتخطيط."

تحديات الذكاء الاصطناعي في الأمن وحماية الخصوصية

لا توجد مؤسسة أو شركة واحدة لديها موارد كافية للتعامل مع مخاطر الأمان والخصوصية المتزايدة التعقيد والتهديدات التي يتعرض لها الذكاء الاصطناعي.

وفقا ل التفكير المسبق في أمن الذكاء الاصطناعي وحماية الخصوصية: حماية البيانات الشخصية وتطوير القدرات التكنولوجية ورق ابيض (بي دي إف) ، يواجه أمن وخصوصية تطوير الذكاء الاصطناعي ثلاثة تحديات واسعة تشمل كل واحدة منها تحديات أخرى أصغر. تشير معايير ومواصفات الصناعة إلى أن الموثوقية الفنية والتطبيقات المجتمعية والمتطلبات والمسؤوليات القانونية هي التحديات الرئيسية لأمن الذكاء الاصطناعي وحماية الخصوصية.

  • الموثوقية الفنية: التحديات الأصغر في هذه المنطقة الأوسع تشمل افتقار الشبكات العصبية العميقة (DNNs) إلى القوة مما يؤدي إلى التعرض لهجمات الغزو. قد يؤدي الافتقار إلى الشفافية وإمكانية شرح هذه الأنظمة المعقدة إلى انتهاك المتطلبات القانونية أو التنظيمية مثل اللائحة العامة لحماية البيانات من حيث اتخاذ القرار الآلي. أيضًا ، قد تنجم خرق البيانات والعبث والسرقة وإساءة استخدام كميات هائلة من البيانات عن عدم توفر حماية شاملة لأمن البيانات. ومن الأمثلة على ذلك في مجال القيادة الذاتية حيث يمكن أن تؤدي هجمات التهرب إلى مخالفات مرورية وحتى تؤدي إلى وقوع حوادث. في مجال الرعاية الصحية ، يمكن للمهاجمين أيضًا إدخال أخطاء كبيرة في الجرعة الموصى بها من قبل نماذج الذكاء الاصطناعي من خلال إضافة كمية صغيرة فقط من البيانات الضارة ولكن ينتج عنها عواقب وخيمة وخيمة. تنص الورقة على أنه على الرغم من أن معدل دقة فحص السرطان بواسطة الذكاء الاصطناعي يظهر أنه مرتفع ، إلا أن الأطباء يتفقون مع حوالي نصف هذه النتائج فقط لأنهم على ما يبدو يعتقدون أن النتائج تفتقر إلى المنطق والمنطق. على الرغم من أنه يمكن الجدل أو التحقيق بشكل أفضل.

  • التطبيقات المجتمعية: هنا ، قد تتضمن التحديات الأصغر داخل التطبيقات المجتمعية الأوسع نقصًا في الإدارة والتحكم في أغراض الذكاء الاصطناعي ، مما يؤدي بدوره إلى إساءة استخدام الذكاء الاصطناعي ؛ كما تؤدي قضايا جودة البيانات إلى أحكام متحيزة وغير عادلة. يتم تقديم تحدٍ خطير عندما يسيء مطورو التطبيقات والناشرون الذين لا يمتلكون معرفة وقدرات كافية أنظمة الذكاء الاصطناعي ، مما يتسبب في حوادث خطيرة تتعلق بالأمن والخصوصية. ومن الأمثلة على ذلك ، أن برنامج التعرف على الوجه يطابق الصور بشكل غير صحيح مع لقطات مجرمين تظهر معدل تطابق خاطئ مرتفع بسبب إعدادات المعلمات غير الصحيحة.

  • المتطلبات والمسؤوليات القانونية: تحديد حقوق ومسؤوليات أصحاب المصلحة بطريقة واضحة ليس ممكنًا بعد نظرًا لعدم وجود قوانين أو لوائح مثل اللوائح المتعلقة بالقيادة الذاتية وخوارزمية المساءلة. هناك حالة واضحة هنا ، عندما قتلت مركبة ذاتية القيادة أحد المشاة ، مما أدى إلى مناقشات حول الإشراف والمسؤوليات القانونية للمركبات ذاتية القيادة. من الذي يجب أن يتحمل المسؤولية القانونية ، الآلة أم الإنسان الذي برمجها؟ يمكن أن تكون أيضًا حالة عندما يواجه النظام المستقل مشكلة فنية ، على سبيل المثال ، انكسار سلك ، وهو أمر لا يتعلق بالبرمجة الفعلية للنظام المستقل ولكنه يتسبب في حدوث عطل ويخرج السيارة عن السيطرة.

من أجل توضيح مسؤوليات أصحاب المصلحة في مجال الذكاء الاصطناعي لبناء عالم رقمي ، تذكر Huawei: "ندعو الحكومات والمنظمات القياسية والمستخدمين النهائيين والصناعة ككل إلى التوصل إلى توافق في الآراء والعمل معًا لتطوير قواعد سلوك ومعايير جديدة ، والقوانين الخاصة بالذكاء الاصطناعي وحالات استخدامه. ستعمل Huawei وشركاؤها العالميون معًا لمراجعة مهامهم بناءً على سيناريوهات الأعمال ، وتوضيح المسؤوليات والأنشطة بشكل أكبر ، وتوفير أساليب التفكير والحوكمة المنهجية لتزويد الأشخاص بشكل مشترك بخدمات الذكاء الاصطناعي التي يمكنها ضمان الأمن والخصوصية. "

وفقًا لشركة Huawei ، لا يوجد لدى أي مؤسسة أو شركة موارد كافية للتعامل مع مخاطر الأمان والخصوصية المعقدة بشكل متزايد والتهديدات التي يتعرض لها الذكاء الاصطناعي.

لذلك ، هناك حاجة ماسة لدعوة عامة للانضمام إلى قادة الصناعة. من خلال العمل معًا على تطوير قواعد سلوك مستهدفة جديدة ومعايير محددة وقوانين جديدة لتعزيز أمن الذكاء الاصطناعي وحماية الخصوصية ، سيكون من الممكن ضمان نشر مسؤول وأخلاقي للذكاء الاصطناعي في المستقبل. الذكاء الاصطناعي هو مسؤولية مشتركة. وهذه ليست سوى البداية.


شاهد الفيديو: هل الرياضيات ضرورية لتعلم الذكاء الاصطناعي وتعلم الآلة (يونيو 2022).


تعليقات:

  1. Nefen

    إنه مثير للاهتمام. من فضلك قل لي - أين يمكنني العثور على مزيد من المعلومات حول هذا الموضوع؟

  2. Roddric

    غرفة مفيدة جدا

  3. Meztikree

    أعتقد أنك كنت مخطئا. أقترح مناقشته. اكتب لي في PM ، وتحدث.



اكتب رسالة