تحقیقات هوش مصنوعی: فلسفه نمرده است
چرا ما می توانیم در مورد جهان فکر کنیم در حالی که جهان نمی تواند در مورد ما فکر کند؟ این پرسش ساده و در عین حال عمیق به تحقیقات فلسفی، کلامی و علمی جذابی منجر می شود. همین ملاحظات در عرصه تحقیقات هوش مصنوعی و هدف آن یعنی هوش عمومی مصنوعی نیز همگرایی دارند. هوش مصنوعی یک بستر رو به رشد است، اما این پژوهش صرفاً یک تلاش علمی نیست و این مستلزم استدلالی فلسفی است که به باور من یادآور عاملیت هوشمندی است که در پس منشأ جهان وجود دارد.
پیگیری هوش جامع مصنوعی (AGI) مستلزم آن است که دانشمندان چگونگی ساخت و برنامهریزی ماشینی را با ظرفیت بررسی چیزهای خارج از محیط خود و همچنین مکان آن در یک بستر بزرگتر بیابند. حتی پروژههای سادهتر با هدف هوش محدود مصنوعیANI) ) که میتوانند از طریق دستورالعملهای با پایان باز کار کنند، ایجاب میکنند که دانشمندان به دقت نحوه تفکر و استدلال ما را بررسی کنند.
گفت و گوهای حوزه هوش مصنوعی اغلب نشان می دهند که رایانه ها در مقایسه با انسان چقدر سریع تر محاسبات را انجام می دهند. واضح است که برنامهها سریعتر محاسبه میکنند و از طریق فرآیندهای منطقی، از ما سریعتر کار میکنند. با این حال، سوال مهم این است که کامپیوترها چقدر می توانند بر اساس استدلال های به دست آمده از داده های ناقص که اجازه نتیجه گیری قطعی را نمی دهند، تصمیم بگیرند؟ به نظر می رسد که فلسفه، به ویژه فلسفه استدلال، نقشی جدایی ناپذیر در توصیف و توسعه فرآیندهای رسیدگی به چنین موقعیت هایی دارد.
دانش واقعی زندگی معمولاً تجربی است
این سناریوهای هوش مصنوعی با استدلال در عرصه ریاضی تفاوت دارند زیرا دانش واقعی در زندگی یکنواخت نیست. در منطق رسمی (یکنواخت)، از مجموعه ای از بدیهیات اساسی، نتایج حاصل از آن بدیهیات درست می شود و مجموعه چیزهای «معلوم» همیشه رشد می کنند. ماهیت منطق رسمی از امکان تناقض یا تجدید نظر در هنگام به دست آوردن اطلاعات جدید ممانعت می کند، امابه ندرت شرایط لازم برای منطق رسمی در سناریوهای روزمره برآورده می شوند. در نتیجه باید شرایط را ارزیابی کرد، گزینههای مختلف را برای توضیح شرایط و همچنین گزینههای مختلف را برای چگونگی ادامه تعیین نمود و در نهایت در مورد بهترین روش تصمیم گرفت.
همانطور که نویسندگان یک مقاله بیان کرده اند، 1
. . . تعدادی از تمایزات اساسی بین مفاهیم “P یک دلیل رسمی است که T صدق میکند” و “P یک استدلال متقاعد کننده برای پذیرش T است” وجود دارند.
کدام نظام اخلاقی؟
با این حال، اغلب افراد در مورد اینکه آیا یک استدلال متقاعدکننده است یا بهترین اقدام چیست، اختلاف نظر دارند. هر شکلی از هوش مصنوعی باید بسنجد که چگونه میتواند به این واقعیت که اکثر موقعیتهای زندگی بهترین پاسخ ها را به همراه ندارند و هر راه حلی دارای مزایا و پیامدهایی است، غلبه کند. ارزیابی فواید و پیامدهای مختلف تقریباً همیشه مستلزم برخی نظامهای اخلاقی و ارزش ها است، که این سوال را مطرح می کند که هوش مصنوعی از چه سیستمی باید استفاده کند.
به نظر می رسد در جامعه، ما به سمتی در حرکتیم که هرکسی درست یا غلط را برای خودش مشخص میکند. اما آیا ما واقعاً یک هوش مصنوعی (که ممکن است سریعتر تصمیم بگیرد و سریعتر از انسانها پاسخ دهد) می خواهیم که با یک کد اخلاقی ذهنی تصمیم گیری کند؟ فرض کنید یک هوش مصنوعی تصمیمی بگیرد که منجر به جراحت یا مرگ شخصی شود، در این صورت چه کسی را باید پاسخگو بدانیم؟ آیا می توان هوش مصنوعی را مسئول دانست یا خالق این هوش مصنوعی مسئول است؟
شاید یک ماشین کاملا منطقی و فوق العاده قدرتمند بهترین گزینه نباشد
ما فرض می کنیم که ایجاد یک AGI(هوش جامع مصنوعی) چیزی شبیه به شخصیت دیتا در فیلم پیشتازان فضا Star Trek: The Next Generation خواهد بود. اگرچه دیتا تقریباً از هر نظر فیزیکی (قدرت، هوش، سرعت و…) توانایی بیشتری نسبت به خدمه اینترپرایز داشت اما به نظر میرسید که او همیشه میدانست چه زمانی باید تسلیم اقتدار مافوقش باشد. سازندگان دنیای پیشتازان فضا می توانند چیزهایی را هر طور که دوست دارند بنویسند، اما یک هوش قدرتمند در زندگی واقعی میتواند معضلات کاملاً جدی ایجاد کند. اگر دیتا از خود آگاهی واقعی برخوردار باشد، چگونه ممکن است که تسلیم شدن را انتخاب کند؟ به خصوص وقتی می داند تصمیمات مافوقش نادرست است. تاریخ بشر مملو از نمونه هایی از افرادی است که به اندازه کافی قدرتمند شده اند تا اراده خود را بر دیگران تحمیل کنند (با نتیجه ویرانی هایی بزرگ). همان کاری که ما امیدواریم هوش مصنوعی انجام دهد (انجام وظایف انسانی با مهارت های مافوق بشری) بستری را فراهم می کند تا بروز ویرانی هم محتمل باشد و همین احتمال ما را به نقطه قبلی بازمی گرداند. چگونه مجموعه ای از ارزش ها و اخلاقیات را در چنین ماشینی القاء کنیم و چگونه انتخاب کنیم که از کدام ارزش ها و اخلاقیات استفاده کند؟
اینجا جایی است که من شباهت هایی بین تحقیقات هوش مصنوعی و کیهان شناسی می بینم. برخی از دانشمندانی که تاریخ و منشأ جهان را بررسی میکنند، ادعا کردهاند که فلسفه مرده است (یا حداقل بیارزش شده) زیرا فقط علم دارای ابزار مناسبی برای ارائه پاسخهایی است که ما به دنبال آنها هستیم. اما با نگاهی مختصر به پیگیریها در زمینه هوش مصنوعی، ساده لوحانه بودن چنین اظهاراتی آشکار می شود. اصول فلسفی که به خوبی تثبیت شده اند، از جمله ملاحظات اخلاقی، به هدایت توسعه قابلیتهای اساسی هوش مصنوعی (کوتاهی از خودآگاهی) کمک میکنند و هدف گذاری برای هر AGI مستلزم ورودیهای فلسفی و الهیاتی بیشتری است. به این ترتیب، به نظر می رسد که پیگیریهای عاقلانه AGI دلیلی برای وجود خدا فراهم می کند. یعنی همان سؤالاتی که پژوهشگران (فیزیکدانان و اختر شناسان) می پرسند همگی با فرض استدلال های فلسفی مطرح شده اند. آیا پیدایش جهان آغازی داشته؟ آیا جهان از ازل وجود داشته است؟ اینها مفاهیم هستند. بنابراین، مطالعه طبیعت این پرسشها را ارائه نمیکند بلکه عوامل هوشمند و غیرمصنوعی که در تصویر یک موجود فوق هوشمند ایجاد شده اند، تجهیز شده اند تا این سوالات را بپرسند.
پینوشت
- T. J. M. Bench-Capon and Paul E. Dunne, “Argumentation in Artificial Intelligence,” Artificial Intelligence 171, nos. 10–15 (2007): 619–41, doi:10.1016/j.artint.2007.05.001.