نحو تطوير إطار عمل نموذج حوکمة الذکاء الاصطناعي

نوع المستند : • البحوث والدراسات والمقالات المستوفاة للقواعد العلمیة المتعارف علیها، والتى یجریها أو یشارک فى إجرائها أعضاء هیئة التدریس والباحثون فى الجامعات ومراکز البحوث المصریة والعربیة، وذلک باللغتین العربیة والإنجلیزیة .

المؤلف

أستاذ متفرغ الحاسب الآلى ونظم المعلومات قسم الحاسب الآلى ونظم المعلومات أکاديمية السادات للعلوم الادارية

المستخلص

حوکمة الذکاء الاصطناعي  تبدأ بحوکمة البيانات التي هي بالتأکيد ليست مفهوما جديدا. حيث  أنه طالما تجمع البيانات تصبح المنظمات في حاجة لمستوي سياسة معينة ونظرة ثاقبة لحاکمة إدارة بياناتها. ولحد کبير، بقيت  سياسة البيانات ذات طبيعة خلفية علي الرغم من أن الأعمال المعتمدة علي البيانات تتطلب عادة حوکمة تلک البيانات بحيث تکون في قمة الاهتمام. إلا أنه في الأعوام القليلة الماضية، أي في مواجهة تحديات القرن الحادي والعشرين الصاخب في تغيير الأحداث، صارت حوکمة البيانات في مقدمة المناقشات فيما يتعلق بکل شيئ  تقريبا في وسائل الإعلام ومجالس إدارات المؤسسات المختلفة التي صارت تتخذ الخطوات الأولي تجاه الذکاء الاصطناعي لها. کما أن زيادة المشارکات الحکومية في خصوصية البيانات  حديثا صارت تؤدي دورا بارزا في هذا التطور. وکان له الترکيز المحوري الأکبر علي مخاطر الذکاء الاصطناعي وصيانة إطار عمله  في مواجهة تطوير تعلم الآلة السريع.  وقد ساهم ذلک في أن تبدأ المؤسسات والشرکات المختلفة للتحقق من ان حوکمة البيانات لم تنشأ حققا في طريقة تؤدي لتداول التحول الکبير تجاه الآلة المتطلبة في حقبة الذکاء الاصطناعي الحالية. حيث أنه مع الذکاء الاصطناععي نأتي متطلبات الحوکمة الجديدة المرتبطة بالذکاء الاصطناعي والتي تتطلب إطار عمل ماسب  يطبق بشفافية.
وفي الوقت الحالي، بانتشار علم البياننات والأدوات التي تضع البيانات عبر المنشأة  وصارت متوافرة في متناول الکثيرين لا فقط للنخبة القليلة (مثل علماء البيانات، أو حتى المحللون) وضح أن الشرکات صارت تستخدم بيانات أکثر في طرق عديدة أکثرمما کان عليه الوضع في الماضي. ويمثل هذا قيمة فائقة  للشرکات، حيث أنه حقيقة، يوضح أت الأعمال قد شهدت نجاحا باهرا في استخدام البيانات مما أدي لدفع الأعمال لتبني هذا النهج.  إلا أن ذلک قد يعرض تحديات جديدة أيضا لهذه الشرکات التي تتمثل في أن شرکات تکنولوجيا معلومات الأعمال الغير متمکنة من تداول طلبات البيانات تخلق نوعا من الصراع علي السلطة بين اتجاهين يؤديات لبطء التقدم العام للذکاء الاصطناعي في المنشأة. وقد أدي ذلک أيضا لتحول أساسي وتغير تنظيمي في نوع حوکمة البيانات الذي يمکن استخدام البيانات، بينما يحمي البيانات من المخاطرة أيضا مما يمثل إجابة لهذا التحجي للموضوع المثار.
من هذا المنطلق،  يتطرق هذا العمل لاستکشاف کيفية مشارکة الشرکات العديدة في تحديد نطاق الذکاء الاصطناعي المحتاج له من أجل تعزيز مدخل الحوکمة المتعلق بها. ومع حوکمة البيانات کأساس لذلک، بينما قد يتطلب تغييرا تنظيميا للتحقق منه في المدي الطويل مما قد  يسمح للذکاء الاصطناعي بالمنشأة أن يصبح في النطاق الذي يکون فيه مسئولا ومستداما، لذلک يفصل هذا العمل اطار عمل  حوکمة عمل الذکاء الاصطناعي المقتر تبنيها من قبل المؤسسات المختلفة.

الكلمات الرئيسية

الموضوعات الرئيسية


حوکمة الذکاء الاصطناعي  تبدأ بحوکمة البيانات التي هي بالتأکيد ليست مفهوما جديدا. حيث  أنه طالما تجمع البيانات تصبح المنظمات في حاجة لمستوي سياسة معينة ونظرة ثاقبة لحاکمة إدارة بياناتها. ولحد کبير، بقيت  سياسة البيانات ذات طبيعة خلفية علي الرغم من أن الأعمال المعتمدة علي البيانات تتطلب عادة حوکمة تلک البيانات بحيث تکون في قمة الاهتمام. إلا أنه في الأعوام القليلة الماضية، أي في مواجهة تحديات القرن الحادي والعشرين الصاخب في تغيير الأحداث، صارت حوکمة البيانات في مقدمة المناقشات فيما يتعلق بکل شيئ  تقريبا في وسائل الإعلام ومجالس إدارات المؤسسات المختلفة التي صارت تتخذ الخطوات الأولي تجاه الذکاء الاصطناعي لها. کما أن زيادة المشارکات الحکومية في خصوصية البيانات  حديثا صارت تؤدي دورا بارزا في هذا التطور. وکان له الترکيز المحوري الأکبر علي مخاطر الذکاء الاصطناعي وصيانة إطار عمله  في مواجهة تطوير تعلم الآلة السريع.  وقد ساهم ذلک في أن تبدأ المؤسسات والشرکات المختلفة للتحقق من ان حوکمة البيانات لم تنشأ حققا في طريقة تؤدي لتداول التحول الکبير تجاه الآلة المتطلبة في حقبة الذکاء الاصطناعي الحالية. حيث أنه مع الذکاء الاصطناععي نأتي متطلبات الحوکمة الجديدة المرتبطة بالذکاء الاصطناعي والتي تتطلب إطار عمل ماسب  يطبق بشفافية.

وفي الوقت الحالي، بانتشار علم البياننات والأدوات التي تضع البيانات عبر المنشأة  وصارت متوافرة في متناول الکثيرين لا فقط للنخبة القليلة (مثل علماء البيانات، أو حتى المحللون) وضح أن الشرکات صارت تستخدم بيانات أکثر في طرق عديدة أکثرمما کان عليه الوضع في الماضي. ويمثل هذا قيمة فائقة  للشرکات، حيث أنه حقيقة، يوضح أت الأعمال قد شهدت نجاحا باهرا في استخدام البيانات مما أدي لدفع الأعمال لتبني هذا النهج.  إلا أن ذلک قد يعرض تحديات جديدة أيضا لهذه الشرکات التي تتمثل في أن شرکات تکنولوجيا معلومات الأعمال الغير متمکنة من تداول طلبات البيانات تخلق نوعا من الصراع علي السلطة بين اتجاهين يؤديات لبطء التقدم العام للذکاء الاصطناعي في المنشأة. وقد أدي ذلک أيضا لتحول أساسي وتغير تنظيمي في نوع حوکمة البيانات الذي يمکن استخدام البيانات، بينما يحمي البيانات من المخاطرة أيضا مما يمثل إجابة لهذا التحجي للموضوع المثار.

من هذا المنطلق،  يتطرق هذا العمل لاستکشاف کيفية مشارکة الشرکات العديدة في تحديد نطاق الذکاء الاصطناعي المحتاج له من أجل تعزيز مدخل الحوکمة المتعلق بها. ومع حوکمة البيانات کأساس لذلک، بينما قد يتطلب تغييرا تنظيميا للتحقق منه في المدي الطويل مما قد  يسمح للذکاء الاصطناعي بالمنشأة أن يصبح في النطاق الذي يکون فيه مسئولا ومستداما، لذلک يفصل هذا العمل اطار عمل  حوکمة عمل الذکاء الاصطناعي المقتر تبنيها من قبل المؤسسات المختلفة.

الکلمات الأساسية: حوکمة البيانات، حوکمة الذکاء الاصطناعي، إطار عمل الذکاء الاصطناعي.

 

  1.  مفهوم حوکمة  الذکاء الاصطناعي  ولماذا تتطلب:

تقليديا، حوکمة البيانات تشتمل علي السياسات، الأدوار، المعايير والتدابير لتحسين استخدامالمعلومات التي تمکن المنظمة  لتحقيق غايات وأهداف أعمالها باستمرار. کما تؤکد حوکمة البياناتجودة وأمن بيانات المنظمة من خلال تفسير واضح عن من المسئول لأي بيانات، إضافة لذلک تحديد الأفعال التي  يمکن القيام بها باستخدام الطرق المختلفة الملائمة.

مع بزوغ علم البيانات، تعلم الألة، والذکاء الاصطناعي صارت الفرص متاحة لتوسع کميات البيانات الضخمة التي ساهمت في إنفجار تصرفات الشرکات. ومغزي هذا التطور أناستراتيجيات حوکمة البيانات التي صارت متواجدة  أصبحت کافية لاستدامة نشاط الحوکمة المتزايد. وصار في إمکان علماء البيانات والمحللين الحصول علي لبيانات بسرعة عالية، إلي جانب تمکنهم الجدال حول احتياجات الاعمال من البيانات المختلفة والمتنوعة الضخمة وبسرعة عالية.  کما صارت حاجة المصالح الحکومية في دول العالم في حاجة ملحة لبيانات أعظم عما کانت عليه من قبل، وفي نفس الوقت صارت کثير من المنظمات في جميع أنحاء العالم تتخذ قررات  أکثر مع بيانات ضخمة أکثر أيضا.

وصارت المؤسسات والشرکات المختلفة تلاحظ أهمية توافر حوکمة فعالة ورقابة جودة  متطلبة لکل من المحللين وعلماء البيانات ومتخذي القرارات ومستخدمي الأعمال  من أجل التعامل مع أبعاد الحوکمة بصفة مکررة  وبطرق قد لا تتناسق معا. مما قد يقود لنقص الثقة المرجوة في کل مرحلة من مراحل تدفق البييانات نهائيا، وعندما لا يثق الناس المتعاملين مع المنظمة في البيانات التي توفرها، لا يمکنهم اتخاذ  القرارات الصحيحة  بثقة ممکنة.

تاريخيا، خاطبت شرکات تکنولوجيا المعلومات حوکمة البيانات وصارت مسئولة  عنها نهائيا. لکن بحراک الأعمال لعصر البيانات الذي صار متاحا للجميع (حيث أن الإشراف والوصول وملکية البيانات صارت تمثل تسؤلات أعمال) وأن فرق تکنولوجيا المعلومات وأولئک الذين يوضعون في مواقف تحمل المسئولية لأجزاء متفرقة من حوکمة البيانات بطريقة قد تکون غير صحيحة  تتوافر في أداء طرق الأعمال المتنوعة. وقد يکون السبب في هذا، أن مجموعة المهارة اللازمة لکل مکونات الحوکمة صعبة، إليي جانب أن أولئک المسئولين عن حوکمة البيانات  سوف يتاح لهم الخبرة المتعلقة بکل من معمارية البيانات، الخصوصية، التکامل، والنمذجة.  علي أي حال، کل أولئک الذين علي جانب حوکمة البيانات يجب أن يکوموا خبراء أعمال يعرفون ما يلي:

-         ما هي البيانات؟

-         من أين تأتي البيانات؟

-         کيف ولماذا تعتبر البيانات ذات قيمة للأعمال؟

-         کيف يمکن أستخدام البيانات في سياق أعمال مختلف؟

-         کيف تستخدم البيانات نهائيا والتي بدورها تکون جوهر مسئولية  استراتيجية الذکاء الاصطناعي

-         باختصار، حوکمة البيانات تحتاج لتعاون بين کل من منتفعي تکنولوجيا المعلومات في نفس الوقت.

وبذلک يشرف برنامج حوکمة البيانات التقليدي علي مجموعة من الأنشطة التي تتضمن أمن البيانات، المراجع وإدارة البيانات الرئيسية،معمارية البيانات، جودة البيانات، إدارة مواصفات البيانات التي تتضح في الشکل التاليالذي يبين  مدي الفرق بين کل من حوکمة البيانات وحوکمة الذکاء الاصطناعي:

 

حوکمة البيانات

مستودع البيانات وإدارة ذکاء الأعمال

إدارة مواصفات البيانات (الميتا داتا)

إدارة إطار عمل تعلم الآلة

معمارية البيانات

تطوير البيانات

أمن البيانات

الوثائق وإدارة المحتوي

المراجع وإدارة البيانات الرئيسية

عمليات البيانات

تطوير البيانات

الوثائق وإدارة المحتوي

عمليات البياناتإ

حوکمة البيانات والذکاء الاصطناعي

حوکمة ابيانات التقليدية

المراجع وإدارة البيانات الرئيسية

أمن البيانات

إدارة مواصفات  البيانات (الميتاداتا)

إدارة جودة البيانات

إدارة جودة البيانات

مستودع البيانات وإدارة ذکاء الأعمال

حوکمة الذکاء الاصطناعي المسئولة

معمارية البيانات

حوکمة البيانات والذکاء الاصطناعي

 

 

 

 

 

 

 

 

 

 

 

شکل (1) حراک الحوکمة من البيانات التقليدية  إلي حوکمة الذکاء الاصطناعي

لماذ الحوکمة؟

معظممنشآت الأعمال تعرف حوکمة البيانات حاليا کجزء مهم جدا لاستراتيجية بياناتهم. لکن في أغلب الأحيان يکون ذلک بسبب أن حوکمة البيانات السيئة تکون محفوفة بالمخاطر غالبا. ولا يمثل ذلک سببا لتحديد أولوياتها، إلا أنه بعد کل شيء يعتبر الامتثال للوائح، وتجنب الجهات الفاعلة السيئة، أو المخاوف الأمنية التي تعتبر کلها أمورا بالغة الأهمية للمنظمات التي يجب عليها اتخاذ التدابير المناسبة لمواجهتها.

علي أي حال، برامج الحوکمة ليست مجرد برامج نفعية لأنها تجعل الشرکة سليمة، کما أن تأثيراتها تکون أکثر اتساعا من ذلک، حيث تسهم في تحقيق التالي:

1)    توفير المال:

  • المنظمات تعتقد أن سوء جودة البيانات تعتبر مسئولة لضياع کثير من الأموال.
  • تکلفة الانتهاکات الأمنية هي ضخمة للغاية.
  • حوکمة قوة البيانات المتضمنة جودة وأمن البيانات تؤدي لوفورات ضخمة للشرکة.

2)    تحسين الثقة:

  • o       عند تنفيذ الحوکمة بطريقة ملائمة يمکنها أن تحسن الثقة في البيانات في کل مستويات المنظمة،  مما يسمح للعاملين  أن يکونو أکثر ثقة في القرارات المتخذة.
  • o       تحسن الثقة في التحليل والنماذج المنتجة بواسطة علماء البيانات باٌضافة لدقة البيانات الناتجة من جودة البيانات المحسنة.

3)    تقليل المخاطر:

  • برامج  الحوکمة تقلل خطر الصحافة السلبية المرتبطة بانتهاکات البيانات واستخدام البيانات الموجهة الخطأ.
  • بزيادة اللوائح حول البيانات ، خطر الغرامات يصبح ضارا بشکل لا يصدق.

أخيرا، لا تتعلق الحوکمة بحفظ الشرکة سليمة فقط، حوکمة مکونات البيانات والذکاء الاصطناعي لرفع مستوي الشرکة لمستوي معايير اليوم، تحويل البيانات ونظم الذکاء الاصطناعي في أصل تنظيمي أساسي.

 

  1.  إدارة نموذج إطار عمل تعلم الألة وحوکمة الذکاء الاصطناعي:

2/1 إدارة نموذج إطار حوکمة  تعلم الألة:

بمجرد  استخدام البيانات المحکومة بواسطة برنامج حوکمة البيانات، تطوير واستخدام نموذج إطار عمل تعلم الآلة في الإنتاج، فإن ذلک يتطلب سياسات ، أدوار، معايير وتدابير واضحة غير مبهمة. ويستهدف برنامج نموذج إطار عمل إدارة تعلم الآلة القوي أجابة الأسئلة التالية:

-         من المسئول عن أداء وصيانة نماذج تعلم الآلة؟

-         کيف تحدث نماذج تعلم الآلة و / أو إعادة تشکيلها حساب إنحراف النموذج (أي القصور في أداء النموذج)؟

-         ما تدابير الأداء المقاسة عند تطوير النموذج واختياره، وما مستوي الأداء المقبول للأعمال؟

-         کيف تراقب النماذج خلال الوقت لاکتشاف أي قصور، أو غير متوقع للبيانات والتنبؤات الشاذة؟

-         کيف تراقب النماذج وهل هي هي مفسرة لأولئک خارج فريق التطوير؟

من الجدير ملاحظة أن إدارة  نموذج إطار عمل تعلم الآلة سوف يؤدي دورا مهما في استراتيجيات الذکاء الاصطناعي. في الواقع الحالي وما بعده کتأثير الذکاء الاصطناعي للمنشأة في تطوير النظم لکي تتواءم مع التغيير الاقتصادي المستقبلي.

2/2 حوکمة الذکاء الاصطناعي المسئول:

الجانب الثاني الجديد لاستراتيجية الحوکمة المعاصرة هو الإشراف والسياسات حول الذکاء الاصطناعي المسئول. وبينما يکون ذلک بالتأکيد في مرکز اهتمام وسائل الإعلام، إلي جانب النقاش والجدال العام، فإن الذکاء الاصطناعي المسئول کان  قد تغاضي عنه في نفس الوقت إلي حد ما عندما يتطلب الأمر دمجه کجزء برنامج الحوکمة بشکل ملموس.

ومن المحتمل أنه بسبب "علم البيانات" الذي يشار له کعلم، يوجد إدراک بين البعض أن الذکاء الاصطناعي موضوعي في جوهره، کما أن توصياته، تنبؤاته أو أي مخرج نموذج تعلم الآلة لا يخضع لتحيزات الأفراد. عندما تکون الحالة هکذا، فإن سؤال المسئولية سوف لا يتطابق مع الذکاء الاصطناعي حيث ستکون الخوارزمية تمثيلا لا جدال فيه  للواقع ببساطة. هذا الاعتقاد الخاطئ خطير للغاية، لا فقط بسبب أن شعور زائف حيث يميع المسئولية الجماعية والفردية حول الذکاء الاصطناعي المسئول الذي يهدف لمخاطبة هذا الاعتقاد الخاطئ واجابة أسئلة کما يلي:

-         ما البيانات المختارة لتدريب النماذج، وهل هذه البيانات تتضمن تحيز سابق فيها؟

-         ما الخصائص المحمية التي يجب أن تحذف من عملية تدريب النموذج کالجنس، العمر، الديانة، العرق، الخ؟

-         کيف يحسب ويخفف  تحيز النموذج ؟

-         کيف تحترم خصوصية بيانات العملاء، العاملين، المستخدمين والمواطنين؟

-         إلي متي يمکن الاحتفاظ بالبيانات بشکل شرعي بعد الاستخدام الأصلي لها؟

-         هل أساليب جمع وتخزين تتماشي لا فقط مع المعايير التنظيمية، لکن أيضا مع معايير المنظمة الخاصة بها؟

 

  1.  استراتيجيات حوکمة البيانات الناجة:

يمکن تمميز خمسة مفاتيح حاکمة لتفسير استراتيجية حوکمة الذکاء الاصطناعي الناجحة کما يلي:

1)    الاستراتيجية من أعلي لأسفل ومن أسفل لأعلي:

حتي برنامج حوکمة الذکاء الاصطناعي تحتاج لرعاية ومساندة الإدارة العليا في المنظمة. بدون مساند ودعم من قيادة المنظمة، لا يبدو أنها تعمل التغييرات الصحيحة التي تحدد الشفافية الکاملة. وغالبا تصعب التغييرات المتوقعة لتحسين أمن البيانات وجودتها وإدارتها.

في نفس الوقت، الفرق الفردية يجب أن تکون ذات مسئولية جماعية للبيانات التي تدار وتحلل للإنتاج. وهناک حاجات ترتبط بثقافة التحسين المستمرة ، وقضايا ملکية البيانات، التي تمثل مدخلا من أسفل لأعلي الذي يتحقق جنبا إلي جنب مع الاتصالات من أعلي لأسفل واعتراف الفرق التي عملت تحسينات حقيقية يمکن أن تخدم کمثال لباقي المنظمات.

2)    التوازن بين الحوکمة والتمکين: 

الحوکمة يجب ألا تعيق وتمنع الإبداع، وبدلا من ذلک يجب أن تمکن وتساند الإبداع. وهذا يعني في حالات کثيرة، حاجة الفرق لعمل يميز بين إثبات المفاهيم، مبادرات بيانات الخدمة الذاتية، ومنتجات البيانات الصناعية بالإضافة لحاجات الحوکمة المحيطة بکل منها. کما يجب إعطاء مساحة للاستکشاف والتجريب، إلا أن الفرق تحتاج لاتخاذ قرار واضح عن متي يجب أن تمول مشروعات الخدمة الذاتية، أو يجب أن يمول إثبات المفاهيم ويختبر ويؤکد لکي تصبح حلا عمليا.

 

 

3)    الجودة في الأساس:

في کثير من الشرکات، منتجات البيانات النابعة بواسطة فرق علم البيانات وذکاء الأعمال لا يکون لديها نفس الالتزام بالجدوة کتطوير برمجيات تقليدي (خلال حرکات مثل البرمجة وبراعة أو حرفية  البرمجيات). وتتوافر کثير من الطرق التي نشأت تجاه هذا منذ حمس لعشرة سنوات ماضية، حيث کانعلم البيانات ما زال مجالا جديدا نسبيا، کما أن الممارسين کانوا يعملون في بيئات تجريبية لا تدفع للمنتج السليم.

وبينما علم البيانات مستخدما في الدول المتقدمة، فإن نطبيقه وأهميته تمت لحد کبير  في إطار معايير الجودة المطبقة لتطوير البرمجيات التي  تحتاج لإن يعاد تطبيقها.  وقد صارت جودة البيانات ذاتها تهم الکثيرين أکثر من أي وقت مضي، لکن تحتاج المنتجات أيضا لتضمين نفس معايير الجودة اعالية من خلال مراجعة التکويد، الاختبار، والتکامل المستمر أو التطوير المستمر الذي تقوم به البرمجيات عند الوثوق في الرؤي وتطبق في نطاق الأعمال.

4)    إدارة النموذج:

حيث تصبح نماذج نعلم الآلة والتعلم العميق اکثر انتشارا في القرارات المتخذة عبر الصناعات، إدارة النموذج تصبح عاملا رئيسيا في أي استراتيجية حوکمة ذکاء اصطناعي. وهذا حقيقي بصفة خاصة حيث تحول المناخ الاقتصادي، الذي يسبب تغييرات هائلة في البيانات والنماذج الأساسية التي تتخلل وتنجرف بسرعة أکبر. کما تحتاج المراقبة المستمرة، إنعاش النموذج، والاختبار أيها لتأکيد أداء النماذج اتي تلي احتياجات الأعمال. إلي هذه النهاية تحاول تشغيلات تعلم الآلة  MLOps أخذ الأحسن من عمليات تطوير التشغيلات DevOps من تطوير البرمجيات وتطبيقها لعلم البيانات.

التشغيل

Ops

تعلم الآلة

ML

والشکل التالي يوضح أبعاد تشغيلات تعلم الآلة MLOps  

التطوير

DEV

 

 

 

 

التجريب                                  التطوير                                       التشغيل

- الحصول علي البياتات               - النمذجة والاختبار                         - الإتاحة المستمرة

- فهم الأعمال                          - التکامل المستمر                             - حلقة تغذية البيانات العکسية

- النمذجة التمهيدية                    - النشر المستمر                             - النظام ورقابة النموذج

شکل (2) تشغيلات تعلم الآلة

 

5)    الشفافية والذکاء الاصطناعي المسئول:

في إطار المکون الثلث، يکتب علماء البيانات النکويد ويتمسکون بمعايير الجودة العالية، إلا أنهم ما زالوا يوهبوا مستوي رقابة معينة للخوارزميات المعقدة. وبعبارة أخري، ليس مجرد جودة البيانات  أو التکويد لکن التاکيد أن النماذج تؤدي ما قصد منها أن تؤديه.

ويوجد تدقيق متزايد عن اتخاذ القرارات بواسطة نماذج تعلم الآلة، حيث أن النماذج تتخذ القرارات التي تؤثر علي حياة کثير من الناس کل يوم. علي ذلک تفهم آثار القرارات التي تتخذ وعمل النماذج الشارحة لها التي تعتبر جوهرية للناس المتأثرين والشرکات الناتجة لها.

 

  1.  المزالق وعمليات البيانات في إطار حوکمة الذکاء الاصطناعي:

4/1 مزالق البياتات وحوکمة الذکاء الاصطناعي:

کما سبق ذکره في مستخلص هذا العمل أن البيانات وحوکمة الذکاء الاصطناعي ليست سهلة، حيث أن برامجها تتطلب تناسق وتغيير وظيفي وکل منهما تصبح تحديا في المنشآت الأکبر. کما أن أکثر من ذلک، يمثل نجاح حوکمة الذکاء الاصطناعي سؤالا لا مجرد عمليات نجاح، إلي جانب يؤثر ذلک علي کل من الناس والتکنولوجيا أيضا.  کما أنه علي الرغم من الأهمية الواضحة وفائدة برنامج حوکمة الذکاء الاصطناعي الفعالة الملموسة، إلا أنه يوجد مزالق عديدة في أن الحوکمة يمکن أن  تتأثر وتقع علي طول الطريق مما قد يعرقل الجهود التي يقوم بها الناس وذلک بسبب انعدام وقصور اللأوجه التالية:

-         نقص رعاية القادة: حيث أن برنامج الحوکمة بدون رعاية قادة المنظمة التي تتمثل في سياسات بدون تنفيذ فعلي لها. غالبا ما يفسر علماء البيانات والمحللون وأفراد الأعمال للوضع الراهن الحالي عندما لا يوجد من أعلي لأسفل تتمسک سياسات الحوکمة بالاعتراف بها من قبل القيادة عند القيام بالخطوات الإيجابية المحتاج لها لتحسين حوکمة البيانات.

-         الثقافة: عندما لا توجد ثقافة الملکية الفکرية والإلتزام  لتحسين استخدام واستکشاف البيانات المتاحة خلال المنظمة،  مما بودي إلي صعوبة استراتيجية حوکمة البيانات أن تکون فعالة. ويلاحظ أن الأجابة علي ذلک يعود غالبا لمدي رعاية القادة بجانب توافر الاتصال وألأدوات المحتاج لها.

4/2 العمليات:

تتأثر عمليات حوکمة الذکاء الاصطناعي في المنظمة بالعومل التالية:

-         الاتصال الضعيف: نقص الاتصال الواضح الانتشار حول سياسات، أدوار، معايير وتدابير حوکمة البيانات يمکن ان يقود لبرنامج حوکمة بيانات غير فعال، کما أنه إن لم يکن العاملين غير ملمين أو متعلمين حول ما يجب أن تکون عليه السياسات والمعايير المتطلبة ، فإنهم عندئذ لان يستطيعوا تنفيذ ما هو أحسن لمنظمتهم.

-         نقص موارد التدريب والتعليم: يمثل کل من التدريب والتعليم جزء البيانات الجيدة وحوکمة الذکاء الاصطناعي المهمة للغاية. حيث أن ذلک لا يؤکد فقط أن کل فرد ملم بالسياسات، لکن أيضا لا يمکن ان يساعد  في شرح لماذا تعتبر الحوکمة مهمة بصفة خاصة للمنظمة. وفي هذا السياق، تعتبر موارد التدريب والتعليم التي تتمثل في لقاءات علي الويب، التعلم الإلکتروني، التوثيق علي الخط، البريد الإلکتروني، الفيديو وغير ذلک التي توضح أبعاد تعليم تمهيدي ومستمر للعاملين.

4/3 التکنولوجيا:

-         نقص مستودع مرکزي: البيئة المرکزية المراقبة التي يتم من خلالها تنفيذ أو حدوث جمع البيانات کلها قي مستودع بيانات مرکزي يسهم في جعل البيانات وحوکمة الذکاء الاصطناعي في أبسط الحدود. کما قد تکون منصات علم البيانات، تعلم الآلة والذکاء الاصطناعي متحيزة لبيئة معينة مما يحتم أن تتضمن مميزات أساسية تتمثل في توفير حد أدني لتوثيق سياقي، ترسيم واضح للمشروعات، تنظيم المهمة، إدارة التغيير، التراجع، المراقبة، والأمن علي مستوي المنظمة.

 

  1. إطار عمل نموذج حوکمة الذکاء الاصطناعي:

إطار عمل نموذج حوکمة الذکاء الاصطناعب تتضمن التوجيه لتدابير تساند استخدام الذکاء الاصطناعي المسئول الواجب أن تطبقها المنظمات في المجالات المختلفة کما يلي:

1)    هياکل وتدابير الحوکمة الداخلية: تطبيق هياکل وتدابير الحوکمة الداخلية المتواجدة أو المطلوب وضعها لقيم ومخاطر ومسئوليات المؤسسة المرتبطة باتخاذ القرار الخوارزمي.

2)    تقرير نموذج اتخاذ قرار الذکاء الاصطناعي: يعتبر ذلک منهجية مفيدة تساعد المنظمات الراغبة في المخاطرة لاستخدام الذکاء الاصطناعي، أي تقرير إمکانية قبول المخاطر وتعريف نموذج اتخاذ القرار الملائم لتنفيذ الذکاء الاصطناعي.

3)    إدارة العمليات:  تمثل القضايا الواجب اعتبارها عند تطوير، اختبار وصيانة نماذج الذکاء الاصطناعي المتضمنة إدارة البيانات.

4)    إدارة علاقة العملاء: توضح الاستراتيجيات المستخدمة لتوصيل العناصر المطابقة للعملاء، أي أنها تمثيل لکيف أن نموذج إطار عمل النموذج يمکن تطبيقه من قبل المنظمة.

وکل ذلک يمثل هياکل وتدابير الحوکمة الداخلية  التي تتحقق من أن المنظمات يجب أن تتضمن هياکل وتدابير حوکمة داخلية لتأکيد إشراف قوي لاستخدام المنظمة الذکاء الاصطناعي.

  • هياکل الحوکمة الداخلية للمنظمة:  يمکن تطبيق هياکل الحوکمة الداخلية المتواجدة بالفعل و / أو الهياکل الجيدة عند الضرورة. علي سبيل المثال، المخاطر المرتبطة باستخدام الذکاء الاصطناعي يمکن لدارتها في إطار هيکل إدارة مخاطر المنشأة  الذي يتمثل في الاعتبارات الأخلاقية الممکن تقديمها في تقييم المؤسسة وتدار من خلال مجلس مراجعة الأخلاقيات أو أي هياکل شبيهة. کما يجب أن تقرر المنظمات  أيضا الأوجه المناسبة في هياکل الحوکمة الداخلية بها. علي سبيل المثال، عند الاعتماد کليا علي آلية  حوکمة مرکزية   قد لا تکون الأمثل لها، في هذه الحالة يمکن إعتبار اللامرکزية  لکي تتضمن الاعتبارات الأخلاقية في اتخاذ القرار اليومي للمستوي التشغيلي عند الضرورة.  کما أن رعاية، مساندة، ومساندة  الإدارة العليا ومجلس إدارة المنظمة حوکمة الذکاء الاصطناعي للمنظمة فإنها تعتبر حوهرية وضرورية للمنظمةالمطبقة لها. إلي جانب کل ذلک، يجب أن تدضمن المنظمات بعض أو کل الأوجه التالية في هيکل الحوکمة الداخلية:

1)  أدوار ومسئوليات واضحة لنشر أخلاقيات الذکاء الاصطناعي،

2) صيانة ومراقبة ومراجعة نماذج الذکاء الاصطناعي المنشورة لاتخاذ تدابير التحسين عند الحاجة،

3) مراجعة قنوات الاتصالات والتفاعلات مع المستهلکين والعملاء من أجل تقديم إنشاء قتوات تغذية عکسية فعالة،

4)  تأکيد القوي العاملة المطابقة التي تتعامل مع نظم الذکاء الاصطناعي والمدربة في تفسير مخرج أوقرارات نموذج الذکاء الاصطناعي المستخدم.

  • إدارة المخاطر والرقابة الداخلية للمنظمة: في هذا السياق  يجب توافر العناصر التالية:

1)  إدارة مخاطرة ورقابات داخلية سليمة تحدد وتخاطب المخاطر المتضمنة في نشر نموذج الذکاء الاصطناعي المختار المطلوب تنفيذه.

2)  توفير التدابير الضرورية للتنفيذ کما يلي:

  • استخدام الجهود المسئولة  التي تلائم وحدات البيانات المستخدمة لتدريب نموذج الذکاء الاصطناعي الموجهة لتحقيق غرض معين.، وتقدير وإدارة مخاطر عدم الدقة والتحيز، بالإضافة لمراجعة الاستثناءات المعرفة خلال نموذج التدريب. وعمليا لا توجد مجموعة بيانات غير متحيزة مما يجب علي المنظمات الاجتهاد لفهم  طرق التحيز في وحدات البيانات ومخاطبة ذلک في تدابير سلامة ونشر الاستراتيجيات التي تتعلق بالذکاء الاصطناعي.
  • إنشاء نظم مراقبة وإعلام إلي جانب العمليات التي تؤکد سلامة وملاءمة مستوي الإدارة المعين، إلي جانب إدراک القضايا الأخري التي ترتبط بالذکاء الاصطناعي المنشور. وعندما يکون ملائما، يمکن أن تتضمن  مراقبة ذاتية مستقلة توسع نطاق الرقابة البشرية بفعالية. وفي الإمکان تصميم نظم الذکاء الاصطناعي لکي يؤکد علي مستوي ثقة التنبؤات المتضمنة، بالإضافة لشرح الأوجه الممکن الترکيز علي لماذ  نموذج الذکاء الاصطناعي تضمن مستوي ثقة معين بدلا من لماذا عمل التنبؤ.
  • تأکيد نقل المعرفة الملائم أينما توجد تغييرات في الأفراد الرئيسين المتضمنين في أنشطة الذکاء الاصطناعي، للحد والتقليل من مخاطر حراک العمالة المنشئ فجوة في الحوکمة الداخلية.
  • مراجعة هياکل وتدابير الحوکمة الداخلية عند تواجد تغييرات أساسية للهياکل التنظيمية أو للأفراد الرئيسين المتضمنين في الأنشطة.
  • مراجعة هياکل وتدابير الحوکمة الداخلية دوريا لتأکيد تطابقها وفعاليتعا .
  • §        نموذج اتخاذ قرار الذکاء الاصطناعي: عند تقرير هذا النموذج يجب ملاحظة التالي:

1)  قبل إعتماد نشر حلول  الذکاء الاصطناعي، يجب علي المنظکات تقرير أهداف استخدام الذکاء الاصطناعي التجاري. علي سبيل المثال، تأکيد التوافق والتطابق في اتخاذ القرار، تحسين الکفاءة التشغيلية، وتقليل التکلفة أو تقديم أوجه منتج جديد يزيد من اختيارات المستهلک. أي أن المنظمات أن تحدد وتزن اختياراتها علي أساس مخاطر استخدام الذکاء الاصطناعي في إطار القيم المؤسسية  التي يمکنها أن تعکس القواعد المجتمعية للأقاليم العاملة بها  تلک المنظمات.

2) المنظمات العاملة في دول متعددة يجب عليها الاعتراف بالاختلافات في القواعد والقيم الاجتماعية للأقاليم بقدر الإمکان. علس سبيل المثال، ما قد يکون مقبولا في صعيد مصر قد لا يقبل في الدلتا المصرية والعکس، وبنفس المنطق ما يقبل في دولة ما قد لا يقبل في دولة أخري. کما ان المخاطر علي الأفراد المتصلين بمحرکات التوصية المدعمة بمنتجات وخدمات تتعلق بالتجارة الإلکترونية أو ألية قبول التطبيقات المتاحة افتراضيا علي الخط من أجل تأمين السفر والرحلات، قد تکون أقل من  تلک المرتبطة بتسهيلات التجارة الخوارزمية المقدمة للمستثمرين.

3)  بعض المخاطر التي قد يتعرض لها الأفراد قد تظهر علي مستوي المجموعة فقط. علي سبيل المثال، تطبيق خوارزمية التوصية التي تنتشر علي نطاق واسع قد تتسب في تغيير السلوک، وزيادة تقلبات السوق بشکل عام، عندما يتخذ عدد کبير من الأفراد قرارات شبيهة في نفس الوقت.  وبالإضافة إلي المخاطر التي قد يتعرض ها الأفراد  توجد أنواع من المخاطر الأخري التي قد تکون معرفة أيضا. علي سبيل المثال، تلک المخاطر المرتبطة بالسمعة التجارية للمنظمة.

4)  تحدد وتزن المنظمات أهدافها التجارية في مواجهة مخاطر استخدام الذکاء الاصطناعي التي يجب أن تواجها من خلال القيم المؤسسية للمنظمات، حيث يمکن لتلک المنظمات تقدير ما إن کان نشر الذکاء الاصطناعي المستهدف والنموذح  المختار لاتخاذ القرار الخوارزمي يتوافق مع محور القيم الخاصة بها، أي أن عدم التوافق والإنحرافات  يجب  ان  يؤدي أن يکون اتخاذ القرار واعيا  بذلک في إطار مبررات محددة وموثقة بوضوح.

5) مع تعريف الأهداف التجارية، المخاطر واختيار نموذج اتخاذ قرار مناسب  في إطار عملية مکررة ومستمرة مما يحتم علي المنظمات تعريف ومراجعة المخاطر الکامنة أو المتوقعة المتوافقة مع الحلول التکنولوجية باستمرار مع تخفيف هذه المخاطر، وصيانة خطة استجابة عند ما يفشل التخفيف. توثيق هذه العملية يتم خلال مراجعة تأثبر التقدير دوريا لکي يساعد المنظمة في تطوير الوضوح والثقة  في استخدام حلول الذکاء الاصطناعي، کما يساعد في استجابة المنظمة للتغييرات الأساسية  التي يقوم بها الأفراد والمنظمات الأخري أو في إطار الأعمال والتشريعات المنظمة.

6)  بناء علي مدخل ومنهجية إدارة المخاطر السابقة ، يعرف إطار عمل نموذج الذکاء الاصطناعي   ثلاثة نماذج اتخاذ  قرار  عريض مع تنوع درجات الإشراف البشري  علي عملية اتخاذ القرار کما يلي:

(أ‌)  الإنسان في الحلقة: هذا الموذج يقترح أن الإشراف البشري فعال ومتضمن مع احتفاظ الإنسان بالسيطرة الکاملة وأن الذکاء الاصطناعي يقدم التوصيات أو المداخل المقترحة فقط. أما القرارات فلا يمکن أن تنجز بدون إجراءات إيجابية من قبل البشر. کما  أن الأمر البشري يمضي قدما في تنفيذ قرار معين. علي سبيل المثال، قد يستخدم الطبيب الذکاء الاصطناعي لتعريف التشخيصات الممکنة والعلاجات لحالة طبية غير مألوفة لديه. إلا أن الطبيب سوف يتخذ القرار الکافي للإنسان لکي يتخذ قرارا مستنيرا. علي سبيل المثال، تحديد العوامل المستخدمة في القرار، قيمتها وثقلها، وارتباطاتها.

(ب‌)           الإنسان خارج الحلقة: يقترح هذا النموذج عدم تواجد إشراف بشري علي تنفيذ القرارات.  وبذلک يکون للذکاء الاصطناعي التحکم الکلي في اتخاذ القرار. علي سبيل المثال، في إطار توصية منتج معين تقترح آلسمات السلوکية للمستخدمين له آليا، أي ينشئ الذکاء الاصطناعي المنتجات والخدمات الموجهة للأفراد بناء علي السمات الديموجرافية والسلوکية المقررة سلفا لهم. کما ينشئ الذکاء الاصطناعي أيضا بطريقة آلية سمات جديدة مستقراة للأفراد مما يقترح إبعاد المنتج والخدمة بدلا من الاعتماد علي فئات محددة سلفا. وفي هذه الحالات قد يستخدم نموذج تعلم الألة  للتنبؤ بالطلب أو الاضطرابات المحتملة علي الخطوط الجوية ، ومخرجات هذا النموذج يستخدم بواسطة موديول الحل لتحسين جدولة خط الطيران بدون تواجد الإنسان في الحلقة.

(ت‌)           الإنسان فوق الحلقة: يسمح هذا النموذج للبشر من أجل ضبط الأبعاد المختلفة خلال تنفيذ الخوارزمية. علي سبيل المثال، خطط طريق نظام الإبحار لتحديد الموقع الجرافي GPS من نقطة أ إلي نقطة ب  يقدم طرقا عديدة لکي يختار منها السائق الطريق المناسب المتفق معه، وفي نفس الوقت يمکن للسائق أن يغير الأبعاد (علي سبيل المثال، بسبب الاختناقات غير المتوقعة علي الطريق) خلال الرحلة بدون الحاجة لإعادة برمجة المسار.

  • §        مصفوفة تصنيف احتمالية وخطورة الضرر: يمکن أن يقترح  إطار عمل نموذج الذکاء الاصطناعي هذه المصفوفة کنتيجة اتخاذ القرار من قبل المنظمة . ويعتمد تفسير الضرر وحساب مدي الخطورة علي السياق الذي يختلف من قطاع لأخر. علي سبيل المثال، الضرر المرتبط بتشخيص خاطيء لحالة مريض طبيا سوف تختلف مما قد يرتبط بتوصية منتج خاطئ. والشکل التالي يوضخ احتمالية  الضرر الذي قد ينشأ نتيجة لذلک:

الخطورة العالية

الاحتمالية المنخفضة

 

الخطورة العالية

الاحتمالية العالية

   
   

 

 

 

الخدورة المنخفضة

الاحتمالية المنخفضة

الخطورة المنخفضة

الاحتمالية العالية

 

 

 

 

                                                                    الاحتمالية

شکل (3) احتمالية خطورة مصفوفة الضرر

في إطار نقرير مستوي الإشراف البشري في عملية اتخاذ قرار الذکاء الاصطناعي بالمنظمة ، يعتبر تأثير هذا القرار علي الفرد المستخدم متمثلا في إحتمالية خطورة  مصفوفة الضرر کما هو مبين في الشکل السابق. علي هذا الأساس، تعرف المنظمة مستوي التضمين البشري المتطلب في انخاذ القرار.  وفي نطاق أنظمة السلامة الحرجة يجب علي المنظمات تأکيد السماح للفرد أن يتولي السيطرة علي اتخاذ القرار مع الاستعانة بالذکاء الاصطناعي المقدم معلومات کافية حتى يصبح اتخاذ القرار هادفا وسليما.

  • §       

    إعداد البيانات

    إدارة العمليات: إطار عمل نموذج الذکاء الاصطناعي يستخدم عملية تطبيق ذلک الذکاء الاصطناعي المصمم لوصف المراحل التي تتطلب نشر حل الذکاء الاصطناعي من قبل المنظمة. بذلک يجب أن تلم المنظمة بأبعاد عملية تطبيق الذکاء الاصطناعي التي يجب ألا تکون أحادية الاتجاه غالبا، بل هي عملية تعلم مستمر. والشکل التالي يوضح  مراحل إدارة العمليات:

الخوارزميات

النموذج المختار

 

 

 

-         المرحلة الأولي:                        - المرحلة الثانية:                 - المرحلة الثالثة:

البيانات الخام  تشکل وتنقي حتي           الخوارزميات تطبق للتحليل،            النموذج المختار يستخدم لإنتاج  عشرات

يمکن التوصل إلي الاستنتاجات            وتتضمن النماذج الاحصائية ،           الاحتمالات التي تتضمن في التطبيقات

الملائمة. بصفة عامة، الدقة،              أشجار القرار، الشبکات العصبية.        لاتخاذ القرارات.

والبصيرة التي تزداد بالتطابق             کما أن النتائج المختبرة

وکمية البيانات المتاحة.                  والخوارزميات المکررة حتي

                                            ظهور النموذج المنتج، کما تؤکد

                                            النتائج الفايدة من تشغيل.

شکل (3)   وصف مراحل تطوير النظام

خوارزميات لغة التعلم

أما الشکل التالي فيوضح  مدي تدفق البيانات والخوارزميات في النموذج ومخرجاته:

البيانات الخام

 

 

المعالجة المسبقة للبيانات

ا                                      

البيانات الخام

البيانات المحددة

تطبيق الخوارزميات

النموذج المرشح

النموذج المختار

التطبيق

التکرار حتي اکتمال البيانات

التکرار للنموذج الأحسن

 

 

 

 

 

 

 

الشکل (4) تدفق البانات وتوظيف الخوارزميات لتطوير النموذج

خلال عملية نشر خوارزميات مثل أشجار القرار او الشبکات العصبية التي تطبق للتحليل علي وحدات بيانات التدريب، تفحص النماذج الخوارزکية مع خوارزميات تتکرر حتي إنتاج النموذج الأکثر فائدة لاستخدام الحالة المعينة. هذا النموذج ونتائجه يتضمنان في التطبيقات التي تقدم التنبؤات المرشدة لاتخاذ القرارات وتششغيل الأفعال المتطلبة. ويمثل التفاعل الملائم بين البيانات ونموذج الخوارزميات الترکيز علي هذا الجزء.

 

  1.  بيانات تطوير نموذج الذکاء الاصطناعي:

وحدات البيانات المستخدمة لبناء النماذج قد تأتي من مصادر متعددة. ويتأثر نجاح نموذج حل الذکاء الاصطناعي علي أبعاد جودة البيانات ودقة اختيارها. حيث أنه عندما يبني النموذج  مستخدما بيانات غير دقيقة، متحيزة أو غير متصلة ينتج عنه مخاطر قرارات تمييزية غير مقصودة من النموذج التي سوف تزداد فيما بعد.

کما أن الأشخاص المتضمنين في التدريب واختيار النماذج للنشر قد يکونوا من العاملين الداخلين في المنظمة أو من منتجي خدمة خارجية. وعلي ذلک، يجب أن يکون للنماذج المنشورة في نظام ذکي إدارة مسئولة عن  اتخاذ القرارات للنماذج المتاحة للنشر، کما أنه لتأکيد مدي فعالية حل ذکاء اصطناعي في أن تعمل معا لکل الإدارات بالمنظمة المسئولة عن جودة البيانات، أن تؤدي لتدريب النموذج، واختيار النموذج المحتاج له في إطار وضع محاسبة البيانات الجيدة الذي قد يتضمن التالي:

1) فهم نسب البيانات: أي من أين تأتي البيانات، کيف تجمع، برعاية ونقل داخل المنظمة، وکيف تدقق وتصون علي مدار الزمن. ويمکن أن تعرض نسب البيانات مرئيا لتتبع کيفية حرکة البيانات علي طول طريق تدفقها، أين تتفاعل مع بيانات أخري، وکيف تتغيير العروض. وفي هذا السياق يوجد ثلاثة أنواع نسب البيانات کما يلي:

أ‌.     نسب البيانات إلي الخلف التي تنظر للبيانات من خلال استخدامها النهائي ومدي تأريخه لمصدرها،

ب‌.   نسب البيانات إلي الأمام  التي تبدأ في مصدر البيانات وتتبع خلال استخدامها النهائي، و

ت‌.   نسب البيانات من طرف لآخر التي تجمع النسب إلي الخلف وإلي الأمام معا وتنظر في إجمال الحل من المصدر للاستخدام النهائي  والعکس.

 حفظ سجل مصدر البيانات يسمح للمنظمة التأکد من جودة البيانات المبنية علي التحول اللاحق، تتبع مصادر الأخطاء المحتملة، تحديث البيانات، وسمة البيانات لمصادرها العديدة. ويعترف إطار عمل نموذج حوکمة الذکاء الاصطناعي  بکل ذلک  في بعض الحالات، ومعندما يکون مصدر البيانات مختلفا فيما يتعلق بإنشاء النموذج المختار. ومن الأمثلة المتاحة ما يمکن وحدات البيانات المتحصل عليها من طرف ثالث موثوق به مما يمکن خلط البيانات معا من مصادر متعددة.  وعلي ذلک، يجب علي المنظمات تقدير مدي مخاطر استخدام مثل هذه البيانات وإدارتها طبقا لذلک.

2)  تأکيد جودة البيانات: تؤکد جودة البيانات من خلال فهم ومخاطبة العومل المؤثرة علي جودة البيانات مثل:

أ‌.     دقة وحدة البيانات، فيما يتعلق بکيف تقيم وحدة البيانات الجديدة لکي تضاهي خصائص الکيانات الحقيقية الموصوفة بواسطة وحدات البيانات.

ب‌.   إکتمال وحدة البيانات، التي تتعلق بکل من خواص وحدات البيانات المتنوعة.

ت‌.   صحة مجموعة البيانات التي تشير لکيف يمکن الوثوق في البيانات المتضمنة  الناتجة من مصادر موثوق منها.

ث‌.   سلامة مجموعة البيانات الموصولة في مجموعات بيانات متعددة تشير لکيف تم استخلاصها وتحولها جيدا للأداء المتطلب.

ج‌. ملاءمة مجموعة البيانات وسياق  جمع البيانات المؤثر علي مدي التفسير والاعتماد عليها لتحقيق الغرض المستهدف.

ح‌. سهولة وإمکانية استخدام وحدة البيانات المتضمنة  کيف أنها جيدة ومهيکلة في شکل آلة مفهومة.

خ‌. التخل البشري  الذي  تم تضمين أي إنسان  فيه، للتسميات التطبيقية أو البيانات المحررة.

3) تقليل التحيز الموروث في البيانات: إطار عمل نموذج حوکمة  الذکاء الاصطناعي يعترف بتواجد کثير من أنواع التحيز  المتعلقة بالذکاء الاصطناعي، وبذلک يرکز النموذج في هذا العمل علي تحيز الإنترنت في مجموعات البيانات التي تقود لمخرجات غير مرغوب فيها کما في القرارات غير المقصودة.  مما يجب علي المنظمات أن تکون ملمة في أن البيانات التي تقدمها لنظم الذکاء الاصطناعي قد تکون متحيزة بالوراثة مما يدعو للقيام بالخطوات اللازمة لتخفيف هذا التحيز  الذي يتضمن نوعين  شائعيين هما:

أ‌.     التحيز في الاختيار: حيث يحدث التحيز عند استخدام البيانات التي لا تمثل البيانات الفعية  لإنتاج النموذج ابشکل صحيح، أو  تشبه البيئة التي قد يستلمها النموذج، أو الوظيفة فيه. والأمثلة الشائعة للتحيز في الاختيار لمجموعات البيانات تتمثل في إغفال التحيز، أو تحيز الصورة النمطية المقدمة. ويصف إغفال التحيز  إغفال خصائص معينة من مجموعة البيانات.

ب‌.    تحيز القياس: يحدث التحيز عند إدارة جمع البيانات التي قد تکون منحرفة بشکل منهجي في اتجاه معين. علي سبيل المثال، بيانات التدريب يمکن الحصول عليها باستخدام الکاميرا مع مرشح اللون الذي تم إيقاف تشغيله  مما يؤدي لإنحراف نتيجة تعلم الألة.

تعريف ومخاطبة التحيز الموروث في مجموعات بيانات ليس أمرا سهلا. وأحد الطرق التي تستخدم لتخفيف مخاطر التحيز الموروث يتمثل في مجموعات بيانات غير متجانسة، أي أن جمع البيانات من تنوع مصادر موثوقة. طريقة أخري تتمثل في تأکيد أن مجموعة البيانات کاملة بقدر الإمکان، من منظور خصائص البيانات ووحدات البيانات. کما أن الإزالة المبکرة لخصائص أو سمات البيانات يمکن أن يؤدي ذلک لعملية صعبة التعريف ومخاطبة التحيز الموروث.

4)  مجموعات البيانات المختلفة للتدريب، الاختبار والصحة:  مجموعات البيانات المختلفة المتطلبة للتدريب، الاختبار والصحة تسهم في أن نموذج حوکمة الذکاء الاصطناعي يتم تدريبه بواسطة استخدام بيانات التدريب، التي تقرر دقة هذا النموذج باستخدام بيانات الاختبار والصحة، کما  تمکن في فحص النموذج أيضا فيما يتعلق بأي تحيز منهجي من خلال اختبار ذلک علي مجموعات بيانات ديموجرافية لملاحظة ما إن کانت أي مجموعات يکتنفها الخطأ أو لا يتوافر فيها أخطاء منهجية معينة.  وبذلک يصبح النموذج المتدرب باستخدام مجموعة بيانات الصحة ذا ممارسة جيدة.  وفي الإمکان تفريع مجموعة بيانات ضخمة لمجموعات بيانات فرعية  تضاهي أهداف الأعمال المعينة. وعندما لا تتمکن المنظمات التعامل مع نموذج حوکمة الذکاء الاصطناعي المرتبطة بمجموعة بيانات ضخمة ، أو لا  تستخدم  نموذجا متدربا مسبقا کما في حالة نقل التعلم، يحنم علي علي تلک المنظمات إدراک مخاطر التحيز المنهجي ووضع الضمانات الملائمة.

5) مراجعة وتحديث مجموعات البيانات دوريا: مجموعات البيانات (التي تتضمن التدريب، الاختبار، والصحة) يجب مراجعتها دوريا لتأکيد مدي دقتها، جودتها، حداثتها، تطابقا وموثقيتها. وعندما يکون ذلک ضروريا للمنظمة،   يجب أن تحدث مجموعة البيانات مع بيانات مدخل  بيانات جديدة محصل عليها من استخدام نماذج الذکاء الاصطناعي  المنشورة في الإنتاج واقعيا. وعند استخدام مثل بيانات المدخل الجديد، قد تحتاج المنظمات بالإلمام الکامل بالتحيزات المحتملة لاستخدام بيانات مداخل جديدة ثرية  تدفقت خلال نموذج الذکاء الاصطناعي مرة واحدة مما يمکنها من تخليق تحيز التعزيز.

 

  1. الخوارزمية ونموذج حوکمة الذکاء الاصطناعي:

يجب أن تعتبر منظمات الأعمال المختلفة التدابير المحتاج لها لتعزيز شفافية الخوارزميات التي تتواجد في نماذج حوکمة الذکاء الاصطناعي من خلال مفاهيم التفسير المتعلقة بکيف تعمل، وکيف تصل لتنبؤ معين  يمکن شرحه. الغرض من هذا التمکن يتمثل في شرح التنبؤات المتخذة بواسطة الذکاء الاصطناعي لبناء  فهم تطبيقات الذکاء الاصطناعي والثقة فيها. کما أن المنظمات التي تنشر حلول الذکاء الاصطناعي يجب أن تتضمن أيضا أوصاف تصميم حلول الذکاء الاصطناعي والسلوک المتوقع في منتج أو خدمة الوصف وتوثيق المواصفات الفنية المتعلقة بالنظام المعين لعرض إمکانية المحاسبة  للأفراد و / أو للمشرعين. وقد يتضمن ذلک  تحديد خواص، سمات أو نماذج معينة  تم اختيارها بدلا من غيرها. مما يحتم بالضرورة من المنظمات التي تستخدمها جلب أي طلب المساعدة من مقدمي حلول الذکاء الاصطناعي لأنهم في وضع أفضل لشرح کيفية توظيف الحلول التي يتوصلوا لها.

ويحدد إطار عمل نموذج الذکاء الاصطناعي ما يمکن  أن يتحقق من خلال شرح وظيفة خوارزميات الذکاء الاصطناعي و / أو کيف  يتضمن تنبؤات عملية اتخاذ القرار المتطلب. کما قد تقدم المنظمات المنفذة إطار عمل نموذج الذکاء الاصطناعي مستويات تفصيل مختلفة في شروحها اعتمادا علي التطور الفني للمستفيدين المستهدفين (علي سبيل المثال، الأفراد، الأعمال، أو المنظمات والمشرعين الآخرين).  وقد يؤثر نموذج الذکاء الاصطناعي المستخدم علي النموذج الرياضي علي سبيل المثال.

وفي هذا السياق، يعتبر نموذج التدريب والاختبار ضروريا لتطوير النظام الذکي (أي النظام الذي يتضمن تکنولوجيات الذکاء الاصطناعي).  والمنظمات التي تستخدم النظم الذکية  يجب أن تقوم بتوثيق کيف تتم متغيرات  وعمليات نموذج التدريب والاختيار، وتحديد  أسباب أي قرارات متخذة،  والتدابير المطبقة لمخاطبة المخاطر المعرفة.  وفي هذا الإطار يهدف مجال تعلم الآلة الآلي لتوطين آلية عملية البحث المتکررة للنموذج الأحسن المطبق (إلي جانب، ما وراء المتغيرات الأخري کإجراءات التدريب).  وتعتبر المنظمات المستخدمة  خوارزميات عالية الجودة،  إلي جانب النماذج الفرعية المختارة  أن تتمکن من تحقيق أهداف حوکمة الذکاء الاصطناعي و إجراء عمليات تدقيق الخوارزميات المستخدمة في الظروف التي تتطلب ذلک.

عندئذ، يجب ملاحظة  أن الشرح  الفني  قد لا يکون مستنيرا دائما وخاصة  لغير المتخصصين من العامة، کما قد تکون تفسيرات وظيفة خوارزميات الذکاء الاصطناعي الضمنية لاأکثر فائدة من أوصاف النماذج الصريحة. علي سبيل المثال،  تجنب الأشياء غير الحقيقية وغير الواقعية تمثل نوع التفسير القوي الواجب اعتباره من قبل المنظمات.

کما يمکن  أيضا تواجد سيناريوهات قد لا تکون عملية أو مسئولة لتقديم المعلومات بعلاقتها مع الخوارزمية، التي تکون بصفة خاصة في سياقات معلومات الملکية، الملکية الفکرية، اکتشاف غسيل الأموال، أمن المعلومات، ومنع الاحتيال أو الفساد حيث يجب أن تقدم معلومات مفصلة  حولها أو مراجعات الخورازميا أو القررات المتخذة بواسطة الخوارزميات  التي قد تعرض معلومات أعمال سرية و / أو السماح  للممثليين السيئين عن ير قصد لتجنب الکشف.

وعندما لا يتحقق الشرح عمليا فيما يتعلق بوضع التکنولوجيا الحالي، يمکن للمنظمات إعتبار توثيق تکرارة النتائج المتوصل لها بواسطة نموذج الذکاء الاصطناعي ، مع أن  توثيق التکرارية  لا يکون بديلا معادلا للشرح المفصل. ويشير التکرار إلي القدرو لأداء فعل أو اتخاذ قرار باستمرار بالنطر لنفس السيناريو المستخدم.  حيث أن الاستمرارية في الأداء يمکن أن تقدم لمستخدمي الذکاء الاصطناعي مع درجة ثقة معينة.  وبذلک تتضمن المارسات المساعدة علي ما يلي:

  • إجراء تقييمات  تکرار عمليات النشر التجارية في بيئات حية لتأکيد أن عملياتالنشر متکررة.
  • أداء اختبار الإنصاف المضاد، حيث أن القرار العادل تجاه الفرد  أي الشخص عندما يکون نفس الشيء في الواقع الفعلي ، وأن  العالم الواقعي هو ما ينتمي إليه الشخص المتمثل في مجموعة ديموجرافية مختلفة.
  • نقدير کييفية التعرف علي الاستثناءات المعرفة والمتداولة عندم عدم تکرار القرارات. علي سبيل المثال، تتم إدخال العشوائية عند التصميم.
  • تأکيد تداول الاستثناء في إطار خط سياسات المنظمة.
  • التعريف والمحاسبة المرتبطة بالتغيير عبر الوقت التي تؤکد  أن النماذج مدربة علي بيانات حساسية الوقت لا تزال صلبة.

وعلي ذلک، يعتبر نموذج  الذکاء الاصطناعي قابلا للتتبع ندما  توثق عملية التخاذ القرار بطريقة مفهومة وسهلة. بينما يکون التتبع لأسباب عديدة  في شکل سجل التدقيق الذي يعتبر مصدر بيانات الإدخال الممکن استخدامه مستقبلا کمجموعة بيانات تدريب؛ کما تستخدم المعلومات لاستکشاف الأخطاء وتصحيحها أيضا؛ هذا بالإضافة إلي التحقيق في کيفية وظف النموذج، أو لماذا عمل تنبؤ معين.

ومن الممارسات المساندة للتتبع ما يلي:

  • تنفيذ مسجل الصندوق الأسود الذي يلتقط کل تدفقات المدخل. علي سبيل المثال، مسجل الصندوق الأسود الذي قد يتواجد في السيارة ذاتية القيادة يتتبع مسارات وضع المرکبة ويسجل متي وأين تأخذ رقابة المرکبة نظام السياقة الذاتية  ومدي معانة من مشکلة معينة أو عندما يقوم السائق بالتحکم في مسار المرکبة.
  • تأکيد صلة البيانات ببيانات التتبع المخزنة بطريقة ملائمة لتجنب التدهور أو التغيير والاحتفاظ بها لمدة طويلة بالنسبة للصناعة.

المنظمات المختلفة يجب أن تنشئء سياسة وعملية داخلية  لأدوات ضبط النموذج العادي من أجل تلطيف تغييرات سلوک العميل المتأخرة وإنعاش النماذج بناء علي مجموعات بيانات التدريب المحدثة المتضمنة  بيانات إدخال جديدة. وقد يکون ضبط النموذج ضروريا وخاصة فيما يتعلق بالأهداف التجارية، المخاطر أو تغيير القيم المؤسسية.

وکلما أمکن ذلک، يجب أن يعکس الاختبار ديناميکية بيئة الإنتاج المخطط. کما أن تأکيد السلامة قد يحتاج اختبار ذک تقدير أو تقييم درجة أي حل ذکاء اصطناعي قد عممت جيدا أو فشل فيها. علي سبيل المثال، روبوت المستودع أو المخزن المحدد يکلف بتجنب أي عقبات تواجه مهمة من مهامة (کإلتقاط الحزم الخاصة بالبضاعة المعينة) التي يجب أن تکون مختبرة مع أنواع عقبات مختلفة وبيئات داخلية متنوعة. وبمجرد نشر الذکاء الاصطناعي في بيئة تمثل الواقع الفعلي تستخدم المراقبة النشطة والمراجعة والضبط.

 

  1.  إدارة علاقة العميل CRM:

الاتصال الملائم يلهم الثقة حيث أنه يبني ويصن العلاقات المفتوحة بين المنظمات والأفراد (التي تتضمن العاملين).  ويجب أن تتضمن المنظمات توافر العوامل التالية لتنفيذ وإدارة استراتيجيات اتصالاتها بفعالية عند نشر الذکاء الاصطناعي:

1)    الإفصاح العام: يجب أن تقدم المنظمات معلومات عامة عن استخدام الذکاء الاصطناعي في منتجاتها و / أو خدماتها. وقد يتضمن ذلک توفير معلومات عن کيف يستخدم الذکاء الاصطناعي في اتخاذ قرار حول الأفراد، ومدي الدور الذي يقوم  به لذکاء الاصطناعي في عملية  اتخاذ  القرار . علي سبيل المثال ، الشرکات المصنفة  لتصنيع نظام إبحار تحديد الموقع الجغرافي GPS يجب أن تعلم المستخدمين له أن الذکاء الاصطناعي استخدم فيه لإنشاء طرقا ممکنة من نقطة (أ) إلي نقطة (ب) علي سبيل المثال، أي کيفية اتخاذ مستخدم نظام إبحار القرار أي طريق من الطرق المتاحة، کما أن البوابة  Portal المتاحة علي الخط قد تخبر مستخدميها أن روبوت المحادثة Chatbot متفاعلة مع الذکاء الاصطناعي القوي.

2)    الشفافية المتزايدة: نساهم الشفافية المتزايدة في بناء ثقة قبول الذکاء الاصطناعي من خلال زيادة الإنفتاح في علاقات العميل. ولکي تعمل المنظمات ذلک يجب أن تعتبر الکشف عن الطريقة التي يؤثر الذکاء الاصطناعي فيها علي الأفراد وخاصا عنطما يکون القرار معکوسا. علي سبيل المثال، قد تخبر المنظمة الأفراد کيف يقود تصنيفهم الائتماني لرفض قرض ما  لا من قبل المنظمة فحسب، لکن من منظمات شبيهة أخري أيضا، لکن مثل هذا القرار يکون معکوسا عندما يتمکن الأفراد في تقديم أدلة وبراهين أکثر عن جدوي الائتمان المطلوب.

3)    استخدام لغة اتصال مفهومة لزيادة الشفافية:  في هذا السياق تتوافر أدوات وتدابير متعدد لتسهيل الإمکانية الإنقرائية. کما  توجد قرارات ذات تأثير أعلي توصل في طريقة سهلة الفهم  مع الحاجة إلي توافر شفافية  عن التکنولوجيا المستخدمة.

4)    توافر المعايير الأخلاقية: المعايير الأخلاقية تحکم ابناءتطور الذکاء الاصطناعي واستخدامه. ويحتم ذلک أن تقدر المنظمات علي أداء التقييمات الأخلاقية روإعداد تلخيصات لهذه التقييمات التي تکون مفهومة بدرجة کبيرة.

5)    السياسة للشرح: يجب أن تطور المنظمات سياسة التفسيرات والشروح  المقدمة للأفراد، بحيث تتضمن شروح کيفية عمل الذکاء الاصطناعي في إطار عملية اتخاذ القرار، کيفية اتخاذ قرار معين، والسباب التي تبرر القرار، وتأثير القرار وآثاره کما  يمکن أن تکون المعلومات المتعلقة بقرار محدد  عند الطلب متوافرة أيضا.

6)    مراجعة تفاعل الذکاء الاصطناعي بشريايجب علي المنظمات اختبار واجهة تفاعل المستخدم  فيما يتعلق بمخاطبة مشطلات  إمکانية الاستخدام وسهولته قبل عملية النشر حتى تخدم واجهة تفاعل المستخدم  تحقيق الأهداف المقصودة لها؟

7)    خيارات الإنسحاب:  يجب علي المنظمات اعتبار متي تقرر تقديم الخيار للإنسحاب بعناية، وما إن کان هذا الخيار يقدم بشکل افتراضي أو عند الطلب وفقا لاعتبارات تشتمل علي ما يلي:

-         درجة المخاطرة / الضرر للأفراد،

-         إنعکاسية الضرر  يحتم بالالتزام الفعلي،

-         توافر آلياتاتخاذ قرار بديل،

-         تعقد وعدم کفاءة صيانة النظم امتوازية، و

-         الجدوي الفنية.

8)     توفير قنوات الاتصالات للعملاء: فيما يلي نوعان من قنوات الاتصالات التي يجب توفيرهما للعملاء:

  • قناة التغذية العکسية التي تستخدم لرفع التغذية العکسية أو رفع التساؤلات المتعلقة بالأفراد. وتدار هذه القناة بواسطة أخصائي حماية بيانات المنظمة عندا يتلاءم ذلک. ومن خلال هذه القناة قد يجد الأفراد  عدم الدقة البيانات الشخصية  المستخدمة للقررات المؤثرة عليهم. کما قد تسمح هذه البيانات أيضا بإمکانية تصحيح الأفراد لبياناتهم المتاحة. هذا التصحيح والتغذية المرتدة تحفظ  بدورها صحة البيانات، کما تدار بواسطة مدير خدمة الجودة. وعندما يرغب الأفراد رفع التغذية المرتدة والتسؤلات  عن الاستدلالات المادية التي تعمل علي البيانات.
  • قناة مراجعة القرار: بعيدا عن مراجعة الالتزامات المتوافرة، تقدم المنظمات طريقا للأفراد عند طلب مراجعة قرارات الذکاء الاصطناعي المؤثرة عليهم. والقرار الآلي بالکامل يکون مسئولا لتقديم مراجعة الفرد من خلال وکيل بشري عند الطلب، کما أنه إذا أثر القرار علي الفرد يجب أن يکون هذا التأثير ماديا. مما يستوجب توفير آلية جزئية مع مراجعة مسبقة لتأکيد القرار المقدم لکي يراجع القرار بواسطة الوکيل البشر فعليا مما لا يجعله مختلفا عن الذکاء الاصطناعي.
  1.  الاستنتاجات:

-         حوکمة البيانات التقليدية وکل المجالات المندرجة  فيها ما زالت مهمة، سواء کان ذلک مرتبطا بجودة البيانات، إدارة البيانات الرئيسية، أو أمن البيانات.

-         علم البيانات، تعلم الآلة، والذکاء الاصطناعي أضافت جميعها أوجه جديدة لحوکمة البيانات من خلال  توسيع الترکيز والتطبيق.

-         المنظمات المختلفة في حاجة أساسية للرعابة، الاستثمار، الثقافة والاتصالات الصحيحة التي تسهم في تأکيد أن برنامج حوکمة البيانات وحوکمة الذکاء الاصطناعي فعال ويقود للتحسينات عبر المنظمة المعينة.

-         لا يکون إطار عمل نموذج حوکمة الذکاء الاصطناعي کاملا أو شاملا  بل يمثل وثيقة مفتوحة للتغذية العکسية

-         عندما تتطور تکنولوجيات الذکاء الاصطناعي تتطور القضايا الأخلاقية وضيا الحوکمة أيضا..