پدرخوانده هوش مصنوعی به کمپین مقابله با فجایع این فناوری پیوست

پدرخوانده هوش مصنوعی به کمپین مقابله با فجایع این فناوری پیوست

مهندس وب: یوشوا بنجیو که یکی از پدرخوانده های هوش مصنوعی محسوب می شود، به پروژه ای در بریتانیا برای جلوگیری از فجایع هوش مصنوعی پیوسته است. این برنده جایزه تورینگ معتقد می باشد تنها راه تضمین ایمنی هوش مصنوعی، استفاده از نه انسان، بلکه همین فناوری جهت بررسی سایر سیستم های هوش مصنوعی است.


به گزارش مهندس وب به نقل از ایسنا، یوشوا بنجیو برنده جایزه تورینگ که یکی از پدرخوانده های هوش مصنوعی مدرن به حساب می آید، روی پروژه ای که توسط دولت بریتانیا برای تعبیه مکانیسم های ایمنی در سیستم های هوش مصنوعی تعریف شده است، پیوسته است.
به نقل از نشریه موسسه MIT هدف این پروژه که Safeguarded AI نام دارد و به مدلول «هوش مصنوعی محافظت شده» است، ساخت یک سیستم هوش مصنوعی است که بتواند بررسی کند که آیا سایر سیستم های هوش مصنوعی مستقر در مناطق حیاتی ایمن هستند یا خیر.
بنجیو به عنوان مدیر علمی به این پروژه ملحق می شود و مشاوره های انتقادی و سفارش های علمی را ارائه می دهد. این پروژه که طی چهار سال آینده ۵۹ میلیون پوند اعتبار دریافت خواهد کرد، توسط آژانس تحقیقات و اختراعات پیشرفته بریتانیا(ARIA) تامین مالی می شود که در ژانویه سال قبل برای سرمایه گذاری در تحقیقات علمی بالقوه تحول آفرین افتتاح شد.
دیوید دالریمپل، مدیر برنامه هوش مصنوعی محافظت شده در ARIA می گوید هدف «هوش مصنوعی محافظت شده» ساخت سیستم های هوش مصنوعی است که می توانند تضمین های کمی در مورد تأثیر آنها بر دنیای واقعی عرضه کنند. ایده این است که آزمایش انسانی را با تحلیل و بررسی ریاضی پتانسیل لطمه رسانی سیستم های جدید تکمیل کند.
هدف این پروژه ساخت مکانیسم های ایمنی هوش مصنوعی با ترکیب مدلهای علمی جهان است که اساسا شبیه سازی هایی از جهان با اثبات های ریاضی هستند. این شواهد شامل توضیحاتی درباره ی کار هوش مصنوعی می شود و انسان ها وظیفه دارند بررسی نمایند که آیا بررسی های ایمنی مدل هوش مصنوعی درست است یا خیر.
بنجیو می گوید که می خواهد کمک نماید تا این اطمینان حاصل شود که سیستم های هوش مصنوعی آینده نتوانند لطمه جدی وارد کنند.
وی ادامه داد: ما هم اکنون درحال حرکت در مسیری مه آلود هستیم که ممکنست یک پرتگاه پیش رویمان باشد. ما نمی دانیم که پرتگاه چقدر دور یا نزدیک است یا حتی اصلا پرتگاهی وجود دارد یا نه. بدین سبب ممکنست سال ها یا دهه ها بطول بیانجامد و نمی دانیم که چقدر می تواند جدی باشد. ما باید ابزارهایی را برای پاک کردن آن مه ایجاد نماییم و مطمئن شویم که اگر پرتگاهی وجود دارد به درون آن سقوط نکنیم.
بنجیو می گوید، شرکت های علم و فناوری راهی برای ارائه تضمین های ریاضی بر اساس این که سیستم های هوش مصنوعی براساس برنامه ریزی رفتار خواهند کرد، ندارند. او می گوید که این غیرقابل اعتماد بودن می تواند به نتایج فاجعه باری منجر شود.
دالریمپل و بنجیو استدلال می کنند که مهارتهای فعلی برای کاهش خطر سیستم های هوش مصنوعی پیشرفته که در آن افراد سیستم های هوش مصنوعی را برای یافتن نقص ها بررسی می کنند، محدودیت های جدی دارند و نمی توان برای اطمینان از عدم کارکرد سیستم های حیاتی به آنها اعتماد کرد.
در عوض آنها امیدوارند که این برنامه راه های جدیدی را برای ایمن کردن سیستم های هوش مصنوعی عرضه نماید که کمتر به کوشش های انسانی و بیشتر بر اطمینان ریاضی متکی باشند.
چشم انداز ساخت یک «هوش مصنوعی دروازه بان» است که وظیفه آن درک و کاهش خطرات ایمنی سایر عوامل هوش مصنوعی است. این دروازه بان تضمین می نماید که عوامل هوش مصنوعی که در بخش های پرمخاطره مانند سیستم های حمل و نقل یا انرژی کار می کنند، همانطور که ما می خواهیم عمل کنند.
دالریمپل می گوید ایده این است که در ابتدا با شرکتها همکاری نماییم تا بفهمیم که مکانیسم های ایمنی هوش مصنوعی چگونه می توانند برای بخش های مختلف مفید باشند.
بنجیو استدلال می کند که پیچیدگی سیستم های پیشرفته به این معنا است که ما چاره ای جز استفاده از هوش مصنوعی برای صیانت از هوش مصنوعی نداریم. این تنها راه است، برای اینکه در بعضی مواقع این هوش مصنوعی ها بسیار پیچیده هستند. حتی آنهایی که حالا داریم.
مرحله بعدی ساخت مدل هایی است که می توانند سیستم های هوش مصنوعی دیگر را بررسی نمایند. همین طور پروژه هوش مصنوعی محافظت شده و ARIA امیدوارند وضع موجود صنعت هوش مصنوعی را تغییر دهند.
ARIA همین طور به افراد یا سازمان ها در بخش های پرخطر مانند حمل و نقل، مخابرات، زنجیره تامین و تحقیقات پزشکی کمک مالی می کند تا به آنها کمک نماید تا برنامه هایی بسازند که ممکنست از مکانیسم های ایمنی هوش مصنوعی بهره مند شوند.
این سازمان در مجموع ۵.۴ میلیون پوند در سال اول و ۸.۲ میلیون پوند دیگر در سال بعد به متقاضیان ارائه می دهد و آخرین مهلت ارسال درخواست ها تا دوم اکتبر است.
این آژانس همین طور شبکه گسترده ای را برای افرادی که ممکنست مشتاق ساخت مکانیسم ایمنی Safeguarded AI بوسیله یک سازمان غیرانتفاعی باشند، به وجود می آورد.
دالریمپل می گوید که این برنامه بدنبال پیشنهادهایی جهت راه اندازی یک سازمان غیرانتفاعی با هیئت مدیره متنوع است که بخش های مختلف زیادی را در بر گیرد تا این کار را به روشی قابل اعتماد انجام دهد. این مشابه همان کاری است که شرکت اوپن ای آی(OpenAI) در ابتدا برای انجام آن پیش از تغییر استراتژی خود برای محصول محوری و سود بیشتر افتتاح شد.
هیئت مدیره این سازمان فقط مسئول پاسخگو کردن مدیر عامل نخواهد بود، بلکه حتی بر تصمیم گیری ها در مورد انجام پروژه های تحقیقاتی خاص و انتشار مقالات و APIهای خاص تأثیر می گذارد.
پروژه «هوش مصنوعی حفاظت شده» قسمتی از ماموریت بریتانیا برای مطرح کردن خود به عنوان یک پیشگام در عرصه ایمنی هوش مصنوعی است. این کشور در نوامبر ۲۰۲۳ میزبان نخستین اجلاس ایمنی هوش مصنوعی بود که رهبران و فناوران جهان را گردهم آورد تا درباره ی چگونگی توسعه این فناوری به روشی ایمن بحث کنند.
دالریمپل می گوید در صورتیکه برنامه تامین مالی برای متقاضیان مستقر در بریتانیا اولویت دارد، ARIA بدنبال استعدادهای جهانی است که ممکنست مشتاق آمدن به بریتانیا باشند.
آژانس ARIA همین طور دارای یک مکانیسم مالکیت معنوی برای تامین مالی شرکت های انتفاعی در خارج از کشور است.
بنجیو می گوید، برای ارتقای همکاری بین المللی در حوزه ایمنی هوش مصنوعی به این پروژه جذب شده است. او ریاست گزارش علمی بین المللی در مورد ایمنی هوش مصنوعی پیشرفته را نیز بر عهده دارد که شامل ۳۰ کشور و همین طور اتحادیه اروپا و سازمان ملل می شود. او که مدافع سرسخت ایمنی هوش مصنوعی است، قسمتی از یک لابی تأثیرگذار بوده است که هشدار می دهد هوش مصنوعی فوق هوشمند یک خطرِ وجودی دارد.
بنجیو می گوید: ما باید بحث در مورد چگونگی مقابله با خطرات هوش مصنوعی را به مجموعه ای جهانی و بزرگتر بیاوریم و این برنامه ما را به این هدف نزدیکتر می کند.


1403/05/19
12:10:43
0.0 / 5
279
تگهای خبر: پروژه , سئو , سرمایه گذاری , سیستم
این مطلب را می پسندید؟
(0)
(0)

تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب
لطفا شما هم نظر دهید
= ۲ بعلاوه ۵
مهندس وب
مهندس وب web engineers