تعلم الآلة لتطبيقات المخاطرة العالية

نوع المستند : عروض المطبوعات العلمیة الحدیثة

المؤلف

أستاذ متفرغ الحاسب الآلى ونظم المعلومات قسم الحاسب الآلى ونظم المعلومات أکاديمية السادات للعلوم الادارية

الموضوعات الرئيسية


العنوان: تعلم الآلة لتطبيقات المخاطرة العالية: الأساليب للذکاء الاصطناعي المسئول
المؤلفون: باتريک هال، جيمس کورتيس، و بارول باندي
الناشر: أورلي O›Rleily
تاريخ النشر: 2022
عدد الصفحات: 89 صفحة
اشتمل هذا الکتاب علي 3 فصول تتمثل في التالي:
1.حوکمة النموذ المعاصر
- الالتزام القانوني الأساسي
- الکفاءات التنظيمي والثقافية للذکاء الاصطناعي المسئول
- العمليات التنظيمية للذکاء الاصطناعي المسئول
2. تصحيح أخطاء نظم التعلم الآلي للسلامة والأداء
- التدريب
- تصحيح أخطاء النموذج
- النشر
3.خصوصية وأمن البيانات لتعلم الآلة
- أساسيات الأمن
- هجمات تعلم الآلة
- اهتمامات أمن الذکاء الاصطناعي العام
- التدابير المضادة
- دراسة حالة: هجمات التهرب في العالم الحقيقي
في الوقت الحالي، تعلم الآلة هو أکثر فروع الانضباط قابلية للتطبيق تجارياللذکاء الاصطناعي. نظم تعلم الالة تستخدم لاتخاذ قرارات عالية المخاطر في التوظيف، الکفالة، الإفراج المشروط، الإقراض وکثير من التطبيقات عالية المخاطرة الأخري في جميع أنحاء الاقتصاديات العالمية. وفي بيئة الشرکات، نظم تعلم الآلة تستخدم في کل أجزاء التنظيم من المنتجات التى تواجه المستخدم إلي تقييم الموظف المختص، آلية المکتب الخلفي، وأکثر من ذلک.
في الواقع، العقد الماضي جاء معه اعتمادا واسعا لأساليب تعلم الآلة؛ لکنها أثبتت أيضا أن تعلم الآلة يعرض مخاطر لعمليتها وللمستهلکين أيضا. حيث أنه لسوء الحظ، مثل کل التکنولوجيات الأخري تقريبا، تعلم الآلة يمکن أن يفشل سواء عن طريق سوء الاستخدام غير المتعمد أو من خلال الأساءة المتعمدة. واعتبارا من الآن، صار هناک أکثر من ألف تقرير متاح عن التمييز الخوارزمي، انتهاک خصوصية البيانات، التدريب علي انتهاکات أمن البيانات وغيرها من الحوادث الضارة. مثل هذه المخاطر يجب أن تخفف من قبل المنظمات وعامة الناس حتى يمکن إدراک افوائد الحقيقية لهذه التکنولوجيات.
وبالفعل يتطلب هذا الفعل من قبل الممارسين اثناء التنظيم الذي يهدف هذا الکتاب الإلتزام به ، والذي بدأ يتشکل فعليا، علي الرغم من أن ممارسة تعلم الآلة ما زالت غير منظمة لحد کبير، کما يفتقر إلي معايير مهنية مقبولة. مما يعني أنه يعود الأمر علي الأفراد لحد کبير لتحميل أنفسهم المسئولية عن العالم الحقيقي. وعلي هذا الأساس، تعلم الآلة للتطبيقات علية المخاطرة سوف تسلح الممارسين معفهم قوي لعمليات الحوکمة النموذجية وطريقة جديدة لاستخدام أدوات لغة بايثون Python المشترکة لتدريب النماذج القابلة للتفسير وتصحيح الأخطاء منأجل قضايا الأداء، السلامة، الإنصاف، الأمن والخصوصية.
وقد تفرع هذا الکتاب لثلاث محاورين رئسية، المحور الأول يناقش القضايا من منظور تطبيق عملي مع اشتراطت النظرية عند الضرورة. ويستعرض حوکمة النموذج المعاص المرتبط بالالتزام القانوني الأساسي؛ الکفاءات التنظيمية والثقافية للذکاء الاصطناعي المسئول؛ مع دراسة حالة الموتت بواسطة المرکبات المستقلة ذاتية القيادة. أما المحور الثاني الرئيسي عن تصحيح أخطاء نظم التعلم الآلي للسلامة والأداء المتفرع للتدريب؛ تصحيح أخطاء النموذج؛ والنشر. ويتضمن أمثلة لغة بايثون Python التي تخاطب المجالات المحددة في المحور الأول. أما المحور الثالث والأخير عن خصوصية وأمن البيانات لتعلم الآلة فقد ناقش موضوعات أساسيات الأمن؛ هجمات تعلم الآلة؛ اهتمامات أمن الذکاء الاصطناعي العام؛ مع استعراض دراسة حالة عن هجمات التهرب في العالم الحقيقي.