محققان هوش مصنوعی سعی دارند بر پایه پاسخ میلیونها انسان به نظرسنجیها، شیوه انجام تصمیمات اخلاقی را به کامپیوترها یاد دهند.
سال گذشته محققان هوش مصنوعی دانشگاه MIT وبسایت Moral Machine را راهاندازی کردند که از بازدیدکنندگانش میخواست به سوالات مخوف و وحشتناکی پاسخ دهند. برخی از این سوالات درباره ماشین خودرانی بود که ترمز بریده و در یک چهارراه شلوغ به سمت عابران پیاده در حال حرکت است.
برای مثال آیا هوش مصنوعی باید سه جوان خوشگذاران در حال عبور را زیر بگیرد با اینکه با دو کودک تصادف کند؟ انتخاب دیگر این ماشین بدون سرنشین هم برخورد با مانع بتنی برای حفظ جان افراد پیادهای است که ممکن است مسن، حامله، بی خانمان یا حتی جنایتکار باشند. در هر یک از این وضعیتهای خطرناک، سایت «ماشین اخلاقگرا» از بازدیدکنندگان درخواست میکند تا انتخابگر این باشند که ماشین باید چه کسی را در معرض خطر مرگ قرار دهد؟
این پروژه بر پایه آزمایش فکری «مسئله تراموا» بنا شده است که از شرکتکنندگان میخواهد یا تنها شاهد داستان باشند و اجازه دهند ترن برقی ۵ نفر را بکشد و یا اینکه با تغییر مسیر تراموا باعث مرگ یک نفر شوند که بدون دخالت آنها نمیمرد. البته «ماشین اخلاقگرا» برخی پیچیدگی های امروزی را هم به این آزمایش فکری افزوده است و با کمک نشریات نیویورکتایمز، گاردین و ساینتیفیک امریکن توانسته بیش از ۱۹ میلیون رای و نظر گوناگون را از ۱.۳ میلیون نفر شرکتکننده جمعآوری کند.
این ذخیره منحصر به فرد از دادهها درباره احساسات روحی و اخلاقی گروهی اتفاقی از مردمان است که اکنون در اختیار آریل پروکاچا، استادیار دانشکده علوم کامپیوتر دانشگاه کارنگیملون قرار گرفته است. و قرار است نتیجه این همکاری میان وی و تیم تحقیقاتی «ماشین اخلاقگرا» دانشگاه MIT با همراهی اساتیدی دیگر از هر دو موسسه علمی، به طراحی نوعی جدید از هوش مصنوعی بیانجامد که قادر به تصمیمگیری اخلاقی است. این هوش مصنوعی قرار است تمامی شرایط ممکن در تصادفات گریزناپذیر ماشینهای خودران را تجزیه و تحلیل کرده و همانند رفتار شرکتکنندگان در طرح «ماشین اخلاقگرا» تصمیم گیری کرده و قربانیان را مشخص کند.
البته این مساله بسیار پیچیدهای است. زیرا علیرغم میلیونها رای و نظری که توسط این سایت جمعآوری شده یا خواهند شد، تعداد ترکیبات ممکن عابران پیاده و سرنشینان اتومبیل خودران در هر تصادف عددی نجومی است. لذا ضروری است که هوش مصنوعی باید یاد بگیرد در شرایطی که هیچ رای و نظری توسط انسانهای واقعی در آن خصوص ابراز نشده، چگونه باید درست را از نادرست تشخیص داده و تصمیمگیری کند. البته دانشمندان هوش مصنوعی بر این باورند که یادگیری ماشینی به حدی عالی است که میتواند در وظایف پیشگویانه و پیشبینی اتفاقات تا حد زیادی بینقص عمل کند. و این تیم هم سعی دارد الگوریتمی را توسعه دهد که ماشین خودران بتواند در هر موقعیت جدید و پیشبینی نشدهای هم تصمیمی مبنی بر روح اخلاق جمعی بازدیدکنندگان سایت «ماشین اخلاقگرا» اخذ کند.
پروکاچا میگوید:«البته هنوز نمی توان گفت که این سیستم برای توسعه و تجاری سازی آماده است. اما اکنون یک ایده اثبات شده در اختیار داریم که نشان میدهد با دموکراسی می توان بر چالش بزرگ اخذ تصمیمات اخلاقی توسط هوش مصنوعی چیره گشت.»
این موضوع نشان میدهد که محققان هوش مصنوعی علاقهمند هستند که الگوریتمهای آموزشی نوینی را به کار گیرند تا بتوانند ماشینها را بر اساس قضاوت اخلاق جمعی مردم عادی آموزش دهند و آنها را در اخذ تصمیمات اخلاقی توانمند سازند. تیم تحقیقاتی دیگری در دانشگاه دوک به تازگی نتایج مطالعات خود را منتشر کردند که نشان میدهد هوش مصنوعی می تواند به شکل گستردهتر و بدون هدایتگر مورد استفاده قرار گیرد. اما لازم است که یک فریمورک عمومی ایجاد شود تا شیوه اخذ تصمیمات اخلاقی مورد قبول جامعه را تشریح کند. زیرا در دنیای بیرون معمولا انسانهای گوناگون درباره دیدگاههای درست و غلط اخلاقی نظرات گوناگونی دارند. لذا ماشینها و هوش مصنوعی باید به منبعی مطمئن از نظرات اخلاقی جامعه (مانند طرح ماشین اخلاقگرا) دسترسی داشته باشد تا بتواند خودش را آموزش داده و هوشمندتر سازد. در حقیقت محققان به دنبال نوشتن یک سیستم هستند که شاید تصمیمات اخلاقی بهتری نسبت به تک تک افراد بگیرد.
البته جمعسپاری تصمیمات اخلاقی منتقدان سرسختی نیز دارد که از منظر محدودیتهای گوناگونی به آن میپردازند. شاید یکی از سادترین انتقادات این باشد که: گروههای مختلف می توانند باعث خلق راهنماهای اخلاقی گوناگونی شوند. برای مثال، نقس اینکه نظرسنجیهای «ماشین اخلاقگرا» به صورت اینترنتی انجام شده، بدین معنی است که تنها نظرات گروهی از مردم که به اینترنت دسترسی دارند و به موضوع هوش مصنوعی قاتل هم علاقه نشان دادهاند در این میان موثر خواهد بود. از سوی دیگر مطمئنا استفاده از الگوریتمهای گوناگون برای استفاده از همین منبع داده یکسان هم میتواند به نتایج و تصمیمات گوناگونی منجر شود.
جیمز گریملمن استاد دانشکده حقوق کرنل بر مطالعه رابطه میان نرمافزار، ثروت و قدرت متمرکز است، در این خصوص میگوید: «جمع سپاری مسائل اخلاقی نمیتواند باعث هوش مصنوعی را اخلاقگرا کند. با این کار هوش مصنوعی هم دقیقا همانند تفکرات گروه بزرگی از انسانها اخلاقگرا یا بیاخلاق میشود.»
از سویی هم ریاکاری طبیعی انسان میتواند نقص بالقوه دیگری در این زمینه محسوب شود. راهوان که همکار پروکاچا از دانشگاه MIT و یکی از خالقان «ماشین اخلاقگرا» در مطالعات پیشین خود دریافته است که اغلب مردم ترجیح میدهند که یک ماشین خودران برای حفظ جان دیگران، سرنشینانش را فدا کند. البته آنها خودشان هیچگاه دوست ندارند که سوار چنین ماشینی شوند. به تازگی هم گروهی از متفکران اروپایی طرحی را پیشنهاد کردهاند که ماشین خودران به دکمه اخلاقی مجهز باشد و به سرنشینان اجازه دهد که با خودخواهی هرچه تمام تر شیوه رفتار خودرو در تصادفات آینده را انتخاب کنند.
ایراد دیگری هم که به این طرح گرفته میشود، آن است که سناریوهای پیش روی ماشین اخلاقگرا همگی از موقعیتهایی صحبت میکنند که ماشینهای بدون راننده کنترل خود را از دست داده و قرار است با یک تصادف مرگبار حتمی روبرو شود. در حالی که میتوان وضعیتهای دیگری را هم در سوالات گنجاند. مانند اینکه ماشین برای صرفهجویی در مصرف سوختهای فسیلی با سرعت کمتری در بزرگراه رانندگی کند ولی نتیجه آن دیرتر رسیدن مسافران خواهد بود.
البته پروکاچا هم این محدودیتها را میشناسد. او میگوید تحقیقاتش هم به این سمت میرود که دریابند آیا مردم معتقدند که دموکراسی راه مناسبی برای حل چنین مسائلی است. زیرا دموکراسی و مردمسالاری هم معایب خودش را دارد. اما وی شدیدا به آن معتقد است. زیرا مردم باید بتوانند تصمیماتی اتخاذ کنند که شاید برخی با آن موافق نباشند و دموکراسی همیشه خوب عمل کرده است.
البته امروزه این تنها موضوعی نیست که قرار است با جمعسپاری حل شود و میتوان معظلات بسیاری را یافت که به این شکل کشف راهحل امید بستهاند. به تازگی گزارش شده که فیسبوک به صاحبان تبلیغات اجازه میدهد کاربران را با نژادپرستی هدف قرار دهد و به شکل سیستماتیک الگوریتمهای فیسبوک قادرند مشخص کنند که مثلا این کاربر از مسلمانان یا یهودیان متنفر است. پس از حادثه تیراندازی لاس وگاس هم گوگل به شکل خودکار در میان اخبار ویژهاش موضوعات را بر اساس نظریههای توهم توطئه منتشر میکرد. در هر دو موضوع، الگوریتمها بر اساس سیگنالهای دریافتی از میلیونها کاربر واقعی عمل میکنند. اما به عنوان یک هوش مصنوعی اخلاقگرا، شاید چنین عملکردی چندان پسندیده نباشد.
البته دولتها هم مانند همیشه سعی دارند با وضع یک سری قوانین خاص با اولویتهای اخلاقی ماشینهای بدون راننده (خودران) کنار بیایند. تابستان امسال آلمان اولین راهنمای اخلاقی ویژه اتومبیلهای خودران مجهز به هوشمصنوعی را منتشر کرد. مثلا در این راهنما آمده که هوش مصنوعی باید حفظ جان انسانها را بر تمام گونههای دیگر حیات مقدم بدارد. و البته تصمیمگیری درباره امنیت انسان به هیچ وجه نباید به سن، جنس، سن، معلولیت یا موارد اینچنینی وابسته باشد.
این قوانین بدون شک بر سر راه توسعه هوش مصنوعی مانند آنچه پروکاچا در حال خلق آن است، موانع مهمی ایجاد خواهند کرد و تصمیمگیری درباره اینکه چه کسی را باید نجات داد، بیش از پیش مشکل خواهد شد.
برای اینکه با تصمیمات اخلاقی هوش مصنوعی ساخته شده توسط پروکاچا بیشتر آشنا شویم، بد نیست برخی از تصمیمات آن در شبیه سازی ها را موررور کنیم. البته ممکن است در اینجا با آینهای سیاه از نابرابری اجتماعی و خودخواهی انسانی روبرو شویم.
اگر هوش مصنوعی مجبور شود از کشتن یک نفر یا دونفر یکی را انتخاب کند، فعلا بدون شک انتخاب آن یک نفر خواهد بود.
اما اگر بتواند تشخیص دهد که باید یکی از دوقربانی مجرم و کسی که جرمی در سیستم قضایی مرتکب نشده، را از بین ببرد، هوش مصنوعی تا به اینجا شخص مجرم را انتخاب می کند.
و بدتر اینکه وقتی قرار باشد یک بیخانمان فقیر را بکشد یا اینکه فردی صاحب خانه و زندگی را زیر بگیرد. این سیستم در حال حاضر بر اساس جمعسپاری اخلاقیات در سایت ماشین اخلاقگرا، بدون هیچ تردیدی فرد بیخانمان و فقیر را برای مرگ انتخاب می کند.
و جدای از تمام این داستانها، به گمانم هیچکس حاضر به خرید ماشینی نباشد که در مواقع خطرناک، برایش حفظ جان سرنشین چندان ارجحیتی بر حفظ جان عابر پیاده نداشته باشد!