دارپا هوش مصنوعی قابل اعتمادتری توسعه می‌دهد
توسعه‌ی هوش مصنوعی در چند سال گذشته با افت‌وخیزهای فراوانی همراه بوده است. امروزه از این سیستم‌ها در خودروهای خودران و برای تشخیص بیماری‌ها در علم پزشکی و همچنین تعداد دیگری از مواردی که مردم روزانه با آن‌ها سروکار دارند استفاده می‌شود؛ با این تفاوت که انسان‌ها برای تصمیماتی که می‌گیرند دلایلی دارند.

هنگامی‌که در تصمیم‌گیری‌ها از هوش مصنوعی استفاده می‌شود، دلایلی که این سیستم برای تصمیمات خود دارد در هاله‌ای از ابهام قرار دارد که از آن به‌عنوان بلک باکس نام می‌برند؛ به‌طوری‌که حتی توسعه‌دهندگان هوش مصنوعی قادر به فهم این دلایل یا پیش‌بینی تصمیمات این سیستم نیستند. ما می‌دانیم که شبکه‌ی عصبی مغز آموزش دیده است که این تصمیمات را با مراجعه به مجموعه‌ی بزرگی از داده‌های ذهنی بگیرد. هوش مصنوعی نیز روند آموزشی مشابهی را برای خود انجام می‌دهد؛ اما اعتماد کردن به جسمی که توانایی درک و فهم ندارد نسبتاً دشوار است.

آژانس پروژه‌های تحقیقاتی پیشرفته‌ی دفاعی امریکا (DARPA) در تلاش است تا این بلک باکس را برطرف کند و برای رسیدن به این هدف در اولین گام به پشتیبانی مالی از ۸ پروفسور علوم کامپیوتر از دانشگاه ادِجون استیت به میزان ۶.۵ میلیون دلار پرداخته است.

آلِن فِرن، رئیس این پروژه‌ی تحقیقاتی، در گفت‌وگوی خبری می‌گوید:

    درنهایت ما می‌خواهیم که این تصمیمات عمیق شبکه‌ای را به جملات و تصورات تبدیل کنیم تا این تصمیمات به‌صورت طبیعی گرفته شود.

برنامه‌ی دارپا و دانشگاه ادجون استیت، برای مدت ۴ سال به طول خواهد انجامید و شامل توسعه‌ی سیستمی است که این امکان را به هوش مصنوعی می‌دهد تا با متخصصان یادگیری ماشین، ارتباط برقرار کند. برای توسعه‌ی این سیستم، آن‌ها از هوش مصنوعی در بازی‌های استراتژی مانند استارکرفت استفاده می‌کنند. در این بازی‌ها به هوش مصنوعی آموزش داده می‌شود تا به بازیکنان واقعی دلایلی را که برای تصمیمات خود گرفته‌ است، توضیح دهد. این اولین باری نیست که هوش مصنوعی وارد دنیای بازی‌های ویدیویی شده است. دیپ مایند گوگل نیز بازی استارکرفت را به‌عنوان محیط آموزشی خود برای هوش مصنوعی در نظر گرفته است.

نتایج به‌دست‌آمده از این پروژه‌ی تحقیقاتی درنهایت در پروژه‌های رباتیک و وسایل نقلیه‌ی خودران دارپا مورد استفاده قرار می‌گیرد. بدیهی است که استفاده از پتانسیل‌های کاربردی هوش مصنوعی در مصارف نظامی باید در جهت قانون و اخلاق باشد. فرن می‌گوید:

    هیچ‌کسی از این فناوری نوظهور تا هنگامی‌که آن را به سطح قابل‌اعتمادی ارتقا بدهیم، در موارد خاص استفاده نخواهد کرد و توانایی توضیح دادن تصمیمات توسط هوش مصنوعی، یکی از مهم‌ترین راه‌ها برای توسعه‌ی سطحی قابل‌اعتماد در این سیستم‌ها است.

خوشبختانه، این پروژه تنها پروژه‌ی در حال اجرا برای انسانی شدن هوش مصنوعی به‌منظور اعتمادپذیری بیشتر آن‌ها نیست.