اغلب ما فکر می کنیم که عصر روبات ها موضوع داستان ها علمی-تخیلی است و بحث اخلاق روباتی موضوعی مربوط به آینده دور، اما زمانی که واقعا با این مسائل روبرو باشیم بسرعت فرا می رسد؛ زمانی که تصمیم ها را روبات ها می گیرند. سوال این است که روبات ها باید این تصمیم ها را بر مبنای اخلاقیات بگیرند و اینکه آیا می توانیم اخلاق را به روبات ها آموزش دهیم؟
ماشین طبق برنامه سر ساعت هشت صبح جلوی در خانه می رسد تا شما را به سر کار ببرد. شما سوار می شوید و در صندلی عقب می نشینید و ابزار الکترونیک خود را از کیف درمی آورید تا نگاهی به اخبار بیندازید. تا به حال مشکلی در مسیر خانه تا محل کار پیش نیامده و معمولا ترافیک سبک است.
اما امروز اتفاقی غیرعادی و وحشتناک می افتد، دو بچه که با هم گلاویز شده اند درست جلوی ماشین شما ناگهان وارد خیابان می شوند. فرصت ترمز کردن نیست یا باید با دو بچه بزنید یا بسرعت فرمان را به راست بچرخانید تا از کنار آنها رد شوید اما در این صورت به دوچرخه ای که از روبرو می آید برخورد می کنید.
هر دو احتمال بد هستند، اما کدام کمتر بد است؟
پیش از جواب دادن به این سوال یک چیز دیگر را باید بدانید، سال 2027 است و ماشین شما بدون راننده و خودکار است.در ماشین کنار دکتر ایمی ریمر نشسته ام و او پشت فرمان است.
ایمی دکمه ای را روی صفحه ای فشار می دهد و بدون اینکه به هیچ چیز دیگر دست بزند، ماشین به نرمی راه می افتد، راهنما می زند، پشت چراغ قرمز می ایستد، یک پیچ تند را رد می کند، دور میدان می گردد و بعد به آرامی در کناری پارک می کند.پنج دقیقه اول شدیدا نگران کننده است، اما بعد یکنواخت و کسالت بار می شود. ایمی که دانشجوی دکترا در دانشگاه کمبریج است، سرمهندس خودروهای خودکار جگوار لندرور است.
او مسئول این است که این خودرو چه چیزهایی را ببنید و چه واکنشی به آن نشان دهد.ایمی معتقد است که این ماشین یا ماشینی مشابه آن تا ده سال دیگر در خیابانها تردد خواهند کرد. البته باید مشکلات فنی زیادی مرتفع شوند، اما یک مشکل هست که حتی ممکن است حضور این خودروها را در خیابان ها به تعویق بیندازد، مشکلی که نه الکترونیکی است نه مکانیکی: مسئله اخلاق.
مسئله ای که در مثل دو کودک مطرح شد یکی از اشکال مسئله معروف به "مسئله قطار" در فلسفه است. ترمز یک قطار در حال حرکت می برد. فاجعه ای در پیش است چون پنج نفر به ریل های قطار بسته شده اند. اگر کاری نکنید همگی می میرند. کاری که می توانید بکنید این است که ریل عوض کنید و جان پنج نفر را نجات دهید. مسئله اینجا است که در مسیر جدید هم یک نفر روی ریل است. چه باید بکنید؟ هیچ کاری نکنید و بگذارید پنج نفر کشته شوند یا ریل عوض کنید و یک نفر کشته شود، کار درست چیست؟این سوال از میلیونها نفر در سراسر دنیا پرسیده شده، بیشتر افراد می گویند باید قطار تغییر مسیر دهد.
حالا شکل دیگر این مسئله را در نظر بگیرید. همان قطار ترمز بریده به سمت آن پنج نفر در حال حرکت است. شما بالای پلی ایستاده ید که قطار قبل از اینکه به آن پنج نفر برخورد کند باید از زیر آن رد شود. روی پل یک نفر هم با کوله پشتی عظیم خود ایستاده است. تنها راه نجات آن پنج نفر این است که مرد را با کوله پشتی بزرگش از بالای پل، روی ریل بیندازید تا باعث توقف قطار شود. دوباره مسئله بین جان پنج نفر و جان یک نفر است. اما در این مورد بیشتر مردم پاسخ می دهند که مرد کوله پشتی دار نباید کشته شود.
این معمایی است که دهها سال است مطرح است و هنوز فیلسوفان در باره آن اختلاف نظر دارند. فایده گرایان (Utilitarian) -که عقیده دارند ما برای رسیدن به نهایت خوشبختی یا سعادت باید دست به عمل بزنیم- فکر می کنند حس درونی ما در مورد مرد کوله پشتی دار اشتباه است. آن مرد باید قربانی شود و ما باید جان پنج نفر را نجات دهیم.معماهایی مثل مسئله قطار بشدت غیر واقعی هستند، با این حال در آینده مواردی خواهند بود که خودروی بدون راننده باید تصمیم بگیرد و انتخاب کند به کدام طرف بپیچد و به چه کسی آسیب بزند یا چه کسی را در معرض خطر قرار دهد.
این پرسش ها خود پرسش های بسیاری در پی می آورند. چه برنامه اخلاقی باید به این خودروهای بدون راننده بدهیم؟ جان سرنشین خودرو را در قیاس با رهگذران و مسافران خودروهای دیگر چگونه باید ارزش گذاری کنیم؟ آیا حاضرید خودرویی بخرید که حاضر است جان سرنشین خود را برای نجات جان رهگذران به خطر بیندازد؟ اگر جوابتان بله است، شما غیرعادی هستید.
و بعد مسئله خطیر دیگری مطرح می شود که این تصمیم های اخلاقی را چه کسی باید بگیرد. دولت باید تصمیم بگیرد که این خودروها چگونه تولید شوند؟ یا سازندگان خودرو؟ یا شاید خود شما به عنوان مصرف کننده؟ آیا می شود به نمایشگاه خودرو بروید و علاوه بر رنگ ماشین اصول اخلاقی آن را هم انتخاب کنید: "من می خواهم یک پورشه کروکی آبی فایده گرا که یکی را می کشد تا پنج نفر را نجات دهد بخرم!"
ران ارکین وقتی به این موضوع علاقمند شد که در سال 2004 در کنفرانسی درباره اخلاق روباتی شرکت کرد. او به خاطر می آورد که یکی از حاضران این بحث را پیش کشیده بود که چه گلوله ای برای کشتن افراد بهتر است، بزرگ و کند یا کوچک و سریع. این ارکین را به این فکر انداخت که باید انتخاب کند: "آیا باید پا پیش بگذاریم و مسئولیت تکنولوژی ای را که خلق می کنیم به عهده بگیریم یا نه." از آن زمان به بعد او خود را وقف اخلاق روبات-اسلحه های خودکار کرده که به روبات های قاتل معروف شده اند.
برخی خواستار ممنوعیت روبات-اسلحه های خودکار شده اند، اما ارکین رویکرد دیگری را در پیش گرفته است: اگر ما بتوانیم روباتی بسازیم که از مرگ شهروندان جلوگیری کند باید این کار بکنیم.من طرفدار جنگ نیستم. اما اگر ما هنوز اینقدر احمقیم که خودمان را بکشیم، به نظر من باید از بیگناهان در میدان نبرد محافظت کنیم.
در رویکرد ارکین باید به روبات ها برنامه ای شبیه به مقررات جنگی کنوانسیون ژنو بدهیم و مثلا مانع از کشتن عمدی غیر نظامیان شویم.اما همین موضوع پیچیدگی وحشتناکی دارد، روبات باید بین شهروند دشمن که با چاقو می جنگد و جراحی که برای نجات مجروحان چاقو در دست دارد تمایز قائل شود.راه دیگر بررسی مشکلات این چنینی چیزی است که به آن "یادگیری ماشین" می گویند.
سوزان اندرسون فیلسوف و مایکل اندرسون دانشمند علوم کامپیوتر است. آنها زن و شوهرند و همکار. آنها معتقدند که بهترین راه یاد دادن اخلاق به روبات ها این است که ابتدا برخی اصول مشخص را در آنها برنامه ریزی کنیم: "پرهیز از درد و رنج، نشر شادی" و بعد به ماشین اجازه بدهیم تا از مواجهه با سناریوهای مختلف یاد بگیرد که چگونه این اصول را در شرایط متفاوت به کار گیرد.
به عنوان مثال روبات پرستارها را در نظر بگیرید که برای کمک به بیماران و سالمندان طراحی شده اند، روباتی که برای آنها کتاب یا غذا می آورد، چراغ ها یا تلویزیون را خاموش می کند. انتظار می رود در دهه آینده صنعت تولید روبات-پرستار شکوفا شود. روبات-پرستارها هم مثل خودروهای بدون راننده و روبات های قاتل باید گاهی تصمیم بگیرند. فرض کنید بیماری حاضر به خوردن دارویش نباشد، شاید تا چند ساعت این مسئله ای نباشد چون حق بیمار در تصمیم گیری آزاد ارزشی است که ما به آن احترام می گذاریم. اما وقتی هم هست که باید به بیمار کمک کرد چون ممکن است جانش در خطر باشد.
سوزان و مایکل فکر می کنند وقتی روبات ها یک سلسله از این مسائل را با استفاده از همان اصول پایه پردازش کنند، برایشان روشن تر می شود که چگونه باید عمل کنند. حتی آدم ها هم می توانند از آنها یاد بگیرند. سوزان می گوید: "من فکر می کنم روبات ها از یک فرد معمولی تصمیم های اخلاقی درست تری خواهند گرفت". نه سوزان نه مایکل از فکر اینکه یک روبات-پرستار از آنها مراقبت کند معذب نیستند. مایکل می گوید اینکه روبات زیر آدم را تمیز کند بمراتب بهتر از شرمندگی این است که یک آدم این کار را بکند.
اما "یادگیری ماشین" هم مشکلات خاص خود را دارد. اول اینکه ماشین ممکن است درس را به اشتباه یاد بگیرد. مثلا معلوم شده ماشین هایی که با تقلید از آدم ها زبان یاد، می گیرند پیش داوری هایی را هم یاد می گیرند. اسامی مردها و زنها با چیزهای مختلفی مرتبط هستند و ممکن است ماشین به این باور اشتباه برسد که جک یا فرد برای دانشمند شدن مناسبتر از جوآنا یا فیونا است. ما باید به این سوگیری های خطا آگاه باشیم و سعی کنیم که با آنها مقابله کنیم.
اما مسئله اساسی تر این است که در سیر یادگیری ممکن است نتوانیم پیش بینی کنیم که روبات در آینده چگونه رفتار می کند، ما ممکن است حتی بدرستی نفهمیم که روبات چگونه تصمیم گرفته است. این احتمال نگران کننده است، به خصوص اگر قرار باشد روباتها تصمیم های حیاتی زندگی ما را بگیرند. یک راه حل نسبی این است که اگر وضعیت بدی پیش بیاید، بتوانیم این اصول را بازبینی کنیم- در واقع بدقت آنچه را اتفاق افتاده بررسی کنیم. اینکه روبات را مسئول اعمالش بدانیم، هم احمقانه است و هم به درد نمی خورد.- مثلا مجازات کردن روبات چه فایده ای دارد؟ قضاوت بعدی این است که چه کسی اخلاقا و قانونا مسئول اعمال بد یک روبات است.
یکی از مزایای روبات ها این است که یکدست عمل می کنند. آنها در شرایط مشابه یک کار را انجام می دهند. روبات-سلاح های خودکار در اثر عصبانیت تصمیم غلط نمی گیرند. در دنیا سالانه بیش از یک میلیون نفر در تصادف رانندگی می میرند که علت اکثر آنها خطای انسان است. کاهش این آمار جایزه بزرگی است.البته این که ما برای یکدستی و یکنواختی ارزش قائل هستیم هم موضوع جالبی است. اگر روبات های قاضی همیشه از جملات یکسانی برای محکوم کردن مجرمان استفاده کنند، دلیل محکمی است که صدور حکم را به آنها بسپاریم.
اما با حذف تماس انسانی قاضی و مجرم، چیزی در این بین از دست نمی رود؟ پروفسور جان تاسیولاس، استاد کینگز کالج لندن، معتقد است که این ارتباطات در هم و برهم انسانی ارزش دارند: "آیا می خواهیم نظام جزایی ما به تضادهای ارزشی دردناکی که در پرونده های قضایی وجود دارد پاسخی مکانیکی و یک دست و یک شکل بدهد.؟ وقتی درستکاری فردی و مسئولیت را از تصمیم گیری انسانی حذف کنیم چیزی واقعا مهم را از دست نداده ایم؟"
ایمی ریمر در باره آینده خودروهای بدون راننده هیجان زده است. فقط این نیست که جان آدمها حفظ می شود، ترافیک و آلودگی کم می شود و یکی از معدود چیزهایی خواهد بود که خرید آن برای شما وقت به همراه می آورد. در مسئله قطار این خودروهای بدون راننده چه خواهند کرد؟ با دو کودک تصادف می کنند یا به طرف دوچرخه می پیچند؟
جگوار لندرور هنوز این پرسش را بررسی نکرده، اما ایمی در اینکه این موضوع اهمیت داشته باشد تردید دارد: "من برای گرفتن گواهی نامه رانندگی به چنین سوالی جواب ندادم و الان هم اجازه دارم رانندگی کنم. چرا باید حکم کنیم که خودرو باید برای این سناریوهای نامحتمل جواب داشته باشد پیش از اینکه به خودمان اجازه بدهیم از منافع آن بهره مند شویم."
این سوال بسیار خوبی است. اگر خودروهای بدون راننده از کشته شدن انسان ها جلوگیری می کند، چرا نباید آنها را در خیابان ها بکار بگیریم و بعد این مسئله را حل کنیم که در مواقع نادر این خودروها چه باید بکنند. البته در نهایت بهتر است امیدوار باشیم که روبات ها اخلاقی برنامه ریزی شوند به دلیل اینکه خواه ناخواه در آینده هرچه بیشتر تصمیم هایی را که انسان ها می گیرند روبات ها خواهند گرفت.
و البته دلایلی برای نگرانی وجود دارد. ممکن است کاملا نفهمیم که چرا روبات یک تصمیم به خصوص را گرفته است. لازم است که مطمئن باشیم روبات ها پیش داوری های ما را دریافت و تشدید نمی کنند. اما یک قابلیت مثبت هم وجود دارد. ممکن است معلوم شود روبات ها در برخی تصمیم های اخلاقی از ما انسان ها بهترند. شاید همین ما را انسان های بهتری کند.