تحقیقات هوش مصنوعی: فلسفه نمرده است

چرا ما می توانیم در مورد جهان فکر کنیم در حالی که جهان نمی تواند در مورد ما فکر کند؟ این پرسش ساده و در عین حال عمیق به تحقیقات فلسفی، کلامی و علمی جذابی منجر می شود. همین ملاحظات در عرصه تحقیقات هوش مصنوعی و هدف آن یعنی هوش عمومی مصنوعی نیز همگرایی دارند. هوش مصنوعی یک بستر رو به رشد است، اما این پژوهش صرفاً یک تلاش علمی نیست و این مستلزم استدلالی فلسفی است که به باور من یادآور عاملیت هوشمندی است که در پس منشأ جهان وجود دارد.

پیگیری هوش جامع مصنوعی (AGI) مستلزم آن است که دانشمندان چگونگی ساخت و برنامه‌ریزی ماشینی را با ظرفیت بررسی چیزهای خارج از محیط خود و همچنین مکان آن در یک بستر بزرگتر بیابند. حتی پروژه‌های ساده‌تر با هدف هوش محدود مصنوعیANI) ) که می‌توانند از طریق دستورالعملهای با پایان باز کار کنند، ایجاب میکنند که دانشمندان به دقت نحوه تفکر و استدلال ما را بررسی کنند.

گفت و گوهای حوزه هوش مصنوعی اغلب نشان می دهند که رایانه ها در مقایسه با انسان چقدر سریع تر محاسبات را انجام می دهند. واضح است که برنامه‌ها سریع‌تر محاسبه می‌کنند و از طریق فرآیندهای منطقی، از ما سریع‌تر کار می‌کنند. با این حال، سوال مهم این است که کامپیوترها چقدر می توانند بر اساس استدلال های به دست آمده از داده های ناقص که اجازه نتیجه گیری قطعی را نمی دهند، تصمیم بگیرند؟ به نظر می رسد که فلسفه، به ویژه فلسفه استدلال، نقشی جدایی ناپذیر در توصیف و توسعه فرآیندهای رسیدگی به چنین موقعیت هایی دارد.

دانش واقعی زندگی معمولاً تجربی است

این سناریوهای هوش مصنوعی با استدلال در عرصه ریاضی تفاوت دارند زیرا دانش واقعی در زندگی یکنواخت نیست. در منطق رسمی (یکنواخت)، از مجموعه ای از بدیهیات اساسی، نتایج حاصل از آن بدیهیات درست می شود و مجموعه چیزهای «معلوم» همیشه رشد می کنند. ماهیت منطق رسمی از امکان تناقض یا تجدید نظر در هنگام به دست آوردن اطلاعات جدید ممانعت می کند، امابه ندرت شرایط لازم برای منطق رسمی در سناریوهای روزمره برآورده می شوند. در نتیجه باید شرایط را ارزیابی کرد، گزینه‌های مختلف را برای توضیح شرایط و همچنین گزینه‌های مختلف را برای چگونگی ادامه تعیین نمود و در نهایت در مورد بهترین روش تصمیم گرفت.

همانطور که نویسندگان یک مقاله بیان کرده اند، 1

. . . تعدادی از تمایزات اساسی بین مفاهیم “P یک دلیل رسمی است که T صدق میکند” و “P یک استدلال متقاعد کننده برای پذیرش T است” وجود دارند.

کدام نظام اخلاقی؟

با این حال، اغلب افراد در مورد اینکه آیا یک استدلال متقاعدکننده است یا بهترین اقدام چیست، اختلاف نظر دارند. هر شکلی از هوش مصنوعی باید بسنجد که چگونه می‌تواند به این واقعیت که اکثر موقعیتهای زندگی بهترین پاسخ ها را به همراه ندارند و هر راه‌ حلی دارای مزایا و پیامدهایی است، غلبه کند. ارزیابی فواید و پیامدهای مختلف تقریباً همیشه مستلزم برخی نظام‌های اخلاقی و ارزش ها است، که این سوال را مطرح می کند که هوش مصنوعی از چه سیستمی باید استفاده کند.

به نظر می رسد در جامعه، ما به سمتی در حرکتیم که هرکسی درست یا غلط را برای خودش مشخص میکند. اما آیا ما واقعاً یک هوش مصنوعی (که ممکن است سریعتر تصمیم بگیرد و سریعتر از انسانها پاسخ دهد) می خواهیم که با یک کد اخلاقی ذهنی تصمیم گیری کند؟ فرض کنید یک هوش مصنوعی تصمیمی بگیرد که منجر به جراحت یا مرگ شخصی شود، در این صورت چه کسی را باید پاسخگو بدانیم؟ آیا می توان هوش مصنوعی را مسئول دانست یا خالق این هوش مصنوعی مسئول است؟

شاید یک ماشین کاملا منطقی و فوق العاده قدرتمند بهترین گزینه نباشد

ما فرض می کنیم که ایجاد یک AGI(هوش جامع مصنوعی) چیزی شبیه به شخصیت دیتا در فیلم پیشتازان فضا Star Trek: The Next Generation خواهد بود. اگرچه دیتا تقریباً از هر نظر فیزیکی (قدرت، هوش، سرعت و…) توانایی بیشتری نسبت به خدمه اینترپرایز داشت اما به نظر می‌رسید که او همیشه می‌دانست چه زمانی باید تسلیم اقتدار مافوقش باشد. سازندگان دنیای پیشتازان فضا می توانند چیزهایی را هر طور که دوست دارند بنویسند، اما یک هوش قدرتمند در زندگی واقعی میتواند معضلات کاملاً جدی ایجاد کند. اگر دیتا از خود آگاهی واقعی برخوردار باشد، چگونه ممکن است که تسلیم شدن را انتخاب کند؟ به خصوص وقتی می داند تصمیمات مافوقش نادرست است. تاریخ بشر مملو از نمونه هایی از افرادی است که به اندازه کافی قدرتمند شده اند تا اراده خود را بر دیگران تحمیل کنند (با نتیجه ویرانی هایی بزرگ). همان کاری که ما امیدواریم هوش مصنوعی انجام دهد (انجام وظایف انسانی با مهارت های مافوق بشری) بستری را فراهم می کند تا بروز ویرانی هم محتمل باشد و همین احتمال ما را به نقطه قبلی بازمی گرداند. چگونه مجموعه ای از ارزش ها و اخلاقیات را در چنین ماشینی القاء کنیم و چگونه انتخاب کنیم که از کدام ارزش ها و اخلاقیات استفاده کند؟

اینجا جایی است که من شباهت هایی بین تحقیقات هوش مصنوعی و کیهان شناسی می بینم. برخی از دانشمندانی که تاریخ و منشأ جهان را بررسی می‌کنند، ادعا کرده‌اند که فلسفه مرده است (یا حداقل بی‌ارزش شده) زیرا فقط علم دارای ابزار مناسبی برای ارائه پاسخ‌هایی است که ما به دنبال آنها هستیم. اما با نگاهی مختصر به پیگیریها در زمینه هوش مصنوعی، ساده لوحانه بودن چنین اظهاراتی آشکار می شود. اصول فلسفی که به خوبی تثبیت شده اند، از جمله ملاحظات اخلاقی، به هدایت توسعه قابلیت‌های اساسی هوش مصنوعی (کوتاهی از خودآگاهی) کمک می‌کنند و هدف گذاری برای هر AGI مستلزم ورودی‌های فلسفی و الهیاتی بیشتری است. به این ترتیب، به نظر می رسد که پیگیریهای عاقلانه AGI دلیلی برای وجود خدا فراهم می کند. یعنی همان سؤالاتی که پژوهشگران (فیزیکدانان و اختر شناسان) می پرسند همگی با فرض استدلال های فلسفی مطرح شده اند. آیا پیدایش جهان آغازی داشته؟ آیا جهان از ازل وجود داشته است؟ اینها مفاهیم هستند. بنابراین، مطالعه طبیعت این پرسش‌ها را ارائه نمی‌کند بلکه عوامل هوشمند و غیرمصنوعی که در تصویر یک موجود فوق هوشمند ایجاد شده اند، تجهیز شده اند تا این سوالات را بپرسند.

پینوشت
  1. T. J. M. Bench-Capon and Paul E. Dunne, “Argumentation in Artificial Intelligence,” Artificial Intelligence 171, nos. 10–15 (2007): 619–41, doi:10.1016/j.artint.2007.05.001.