كانت تكنولوجيا الروبوتات النشطة ــ الذكاء الاصطناعي التوليدي ــ قادرة على كتابة رسائل البريد الإلكتروني، وإنتاج التعليمات البرمجية، وتجسيد الرسوم البيانية في دقائق. وفجأة، بدت الأيام التي كان العمال فيها يطالعون صناديق البريد الإلكتروني الخاصة بهم ويصممون العروض التقديمية بعناية وكأنها من مخلفات الماضي.
سارعت الشركات، التي أغرتها مكاسب الأرباح والإنتاجية، إلى تبني هذه التكنولوجيا. ووفقًا لتقرير صدر في مايو/أيار 2011، استطلاع من شركة الاستشارات ماكينزي آند كومباني، قالت 65% من أكثر من 1300 شركة قامت ببحثها إنها تستخدم الآن الذكاء الاصطناعي التوليدي بانتظام – وهو ضعف العدد الذي يستخدمه في العام السابق.
ولكن مخاطر إساءة استخدام التكنولوجيا كبيرة. فالذكاء الاصطناعي التوليدي قد يسبب الهلوسة، وينشر معلومات مضللة، ويعزز التحيزات ضد الفئات المهمشة إذا لم تتم إدارته بشكل صحيح. ونظراً لاعتماد التكنولوجيا على كميات هائلة من البيانات الحساسة، فإن احتمالات حدوث خروقات للبيانات مرتفعة أيضاً. ولكن في أسوأ الأحوال، هناك خطر يتمثل في أن كلما أصبحت أكثر تعقيداً، كلما قل احتمال توافقها مع القيم الإنسانية.
وبالتالي، مع القوة العظيمة تأتي مسؤولية عظيمة، ويجب على الشركات التي تجني الأموال من الذكاء الاصطناعي التوليدي أن تضمن تنظيمه أيضًا.
وهنا يأتي دور مسؤول الأخلاقيات الرئيسي.
ال تختلف تفاصيل الدور من شركة إلى أخرى، ولكن – على نطاق واسع – هم مسؤولون عن تحديد التأثير الذي قد يحدثه استخدام الشركة للذكاء الاصطناعي على المجتمع الأكبر، وفقًا لفار شانكار، كبير مسؤولي الذكاء الاصطناعي والخصوصية في Enzai، وهي منصة برمجيات لحوكمة الذكاء الاصطناعي والمخاطر والامتثال. “لذا، بعيدًا عن شركتك ونتائجك النهائية، كيف يؤثر ذلك على عملائك؟ كيف يؤثر على الأشخاص الآخرين في العالم؟ ثم كيف يؤثر على البيئة”، كما يقول. “ثم يأتي بعد ذلك “بناء برنامج يعمل على توحيد وقياس هذه الأسئلة في كل مرة تستخدم فيها الذكاء الاصطناعي”.
إنه دور يمنح خبراء السياسة والفلسفة، إلى جانب خبراء البرمجة، موطئ قدم في صناعة التكنولوجيا سريعة التغير. وغالبًا ما يأتي هذا الدور مع راتب سنوي ضخم يتراوح بين ستة أرقام.
ولكن في الوقت الحالي، لا تقوم الشركات بتوظيف الأشخاص في هذه الأدوار بالسرعة الكافية، وفقًا لستيف ميلز، كبير مسؤولي أخلاقيات الذكاء الاصطناعي في مجموعة بوسطن الاستشارية. وقال: “أعتقد أن هناك الكثير من الحديث عن المخاطر والمبادئ، ولكن هناك القليل من الإجراءات لتنفيذ ذلك داخل الشركات”.
وفقًا لميلز، يجب أن يتمتع الناجحون في هذا الدور بخبرة في أربعة مجالات. يجب أن يكون لديهم فهم تقني للذكاء الاصطناعي التوليدي، وخبرة في بناء المنتجات ونشرها، وفهم للقوانين واللوائح الرئيسية المتعلقة بالذكاء الاصطناعي، وخبرة كبيرة في التوظيف واتخاذ القرارات في المؤسسة.
وقال “في كثير من الأحيان، أرى الناس يضعون مديرين متوسطي المستوى في المسؤولية، وبينما قد يكون لديهم الخبرة والرغبة والشغف، فإنهم عادة لا يتمتعون بالمكانة اللازمة لتغيير الأمور داخل المنظمة وحشد الفرق القانونية والتجارية والامتثالية معًا”. وأضاف أن كل شركة من شركات فورتشن 500 التي تستخدم الذكاء الاصطناعي على نطاق واسع تحتاج إلى تكليف مسؤول تنفيذي بالإشراف على برنامج ذكاء اصطناعي مسؤول.
قال شانكار، وهو محامٍ بالتدريب، إن الدور لا يتطلب أي خلفية تعليمية محددة. إن المؤهل الأكثر أهمية هو فهم بيانات الشركة. وهذا يعني أن يكون لديك القدرة على التعامل مع “التداعيات الأخلاقية للبيانات التي تجمعها وتستخدمها، ومن أين أتت، وأين كانت قبل أن تكون في مؤسستك، وما هي أنواع الموافقة التي لديك بشأنها”، كما قال.
وأشار إلى مثال مقدمي الرعاية الصحية الذين قد يساهمون عن غير قصد في إدامة التحيزات إذا لم يكن لديهم فهم قوي لبياناتهم. يذاكر في دراسة نشرت في مجلة ساينس، انتهى الأمر بالمستشفيات وشركات التأمين الصحي التي استخدمت خوارزمية لتحديد المرضى الذين قد يستفيدون من “إدارة الرعاية عالية المخاطر” إلى إعطاء الأولوية للمرضى البيض الأصحاء على المرضى السود الأكثر مرضًا. وهذا هو نوع الخطأ الذي يمكن لمسؤول الأخلاقيات أن يساعد الشركات على تجنبه.
ويجب على الأشخاص الذين يشغلون هذا المنصب أن يكونوا قادرين على التواصل بثقة مع مختلف أصحاب المصلحة.
وقالت كريستينا مونتجومري، نائب رئيس شركة IBM ومديرة الخصوصية والثقة ورئيسة مجلس أخلاقيات الذكاء الاصطناعي، لـ BI إن أيامها عادة ما تكون مليئة باجتماعات وفعاليات العملاء، إلى جانب مسؤوليات أخرى.
وقالت “لقد أمضيت الكثير من الوقت خارجيًا، وربما أكثر مؤخرًا، في التحدث في الفعاليات والتفاعل مع صناع السياسات وفي المجالس الخارجية لأنني أشعر أن لدينا فرصة كبيرة للتأثير وتحديد شكل المستقبل”.
إنها تجلس على الألواح مثل الجمعية الدولية لمحترفي الخصوصية، التي أطلقت مؤخرًا برنامجًا احترافيًا لحوكمة الذكاء الاصطناعي شهادة للأفراد الذين يرغبون في قيادة مجال أخلاقيات الذكاء الاصطناعي. كما تتواصل مع قادة الحكومة وغيرهم من كبار مسؤولي الأخلاقيات.
وقالت “أعتقد أنه من المهم للغاية أن نتحدث مع بعضنا البعض بشكل منتظم ونشارك أفضل الممارسات، ونحن نفعل الكثير من ذلك عبر الشركات”.
وتهدف إلى تطوير فهم أوسع لما يحدث على المستوى المجتمعي – وهو ما تراه مفتاحًا لهذا الدور.
وقالت “إن مخاوفي في الفضاء الذي نعيش فيه الآن تتلخص في عدم وجود توافق عالمي بين كل هذه القواعد، وما هو متوقع، وما هو صحيح وما هو خاطئ فيما يتعلق بما يتعين على الشركات الالتزام به. لا يمكننا العمل في عالم بهذه الطريقة. لذا فإن المحادثات بين الشركات والحكومات والمجالس الإدارية مهمة للغاية الآن”.
أضافت MicroStrategy (MSTR)، أكبر شركة حاملة لعملة البيتكوين، 12٪، لتقترب من 255 دولارًا وهي على…
حيتان العملات المشفرة، أو كبار المستثمرين الذين يراهنون على فوز دونالد ترامب، حققوا الملايين في…
حيتان العملات المشفرة، أو كبار المستثمرين الذين يراهنون على فوز دونالد ترامب، حققوا الملايين في…
يحتفل مجتمع العملات المشفرة بفوز الرئيس السابق دونالد ترامب في الانتخابات الرئاسية الأمريكية لعام 2024…
يحتفل مجتمع العملات المشفرة بفوز الرئيس السابق دونالد ترامب في الانتخابات الرئاسية الأمريكية لعام 2024…
كان أحد أكبر الاتجاهات لعام 2023 بين مشاريع الطبقة الثانية الرائدة على إيثريوم هو ظهور…
This website uses cookies.