لزوم حرکت از هوش مصنوعی به سمت حکمت مصنوعی
کد خبر: 4016689
تاریخ انتشار : ۰۷ آذر ۱۴۰۰ - ۰۹:۴۱
استاد دانشگاه باتلر مطرح کرد:

لزوم حرکت از هوش مصنوعی به سمت حکمت مصنوعی

جیمز مک‌گراث، استاد دانشگاه باتلر ایالت ایندیانا گفت: تمام داده‌های موتور‌های جستجوگر توسط انسان‌هایی که خالی از تعصب نیستند پر شده، لذا اگر برنامه‌ای باشد که صد در صد هم صحیح باشد با توجه به داده‌های غلطی که دارد، نتیجه‌ای غلط به ما می‌دهد و هوش مصنوعی در این موضوع مستثنی نیست.

جمیز مکگراث، استاد دانشگاه باتلر آمریکا

به گزارش خبرنگار ایکنا، جیمز مکگراث، استاد دانشگاه باتلر آمریکا شامگاه شنبه 6 آذر در نشست علمی و مجازی «خداباوری و هوش مصنوعی» که چهارمین نشست از سلسله نشست‌های الهیات و هوش مصنوعی بود، با اشاره به این موضوع که در بحث هوش مصنوعی در ارتباط با دین، دو محور «ارتباط بین دین و مباحث تخیلی» و«دین و علم» به وجود می‌آید، گفت: امروز بحث آینده‌پژوهی همه جا را فراگرفته و هوش مصنوعی هم به آن اضافه شده است. در این عرصه دو نگاه خوشبین و کمتر خوشبین به آینده وجود دارد؛ کسانی که خاصیت تکنولوژی را خیلی بیشتر از شرّ آن می‌دانند و حتی اگر مسائل شرعی هم داشته باشند خیلی کم و ناچیز است. مثال آن می‌تواند پیشرفت تکنولوژی، برق، موبایل یا همین اسکایپی باشد که با شما در حال صحبت هستم و نگاه کمترخوشبین را داریم که دو مقوله؛ نحوه استفاده از تکنولوژی و چگونگی به دست آوردن آن را به چالش می‌کشد.

مکگراث با بیان اینکه در این‌باره سوالات متعدد و متفاوتی وجود دارد، ادامه داد: در مسأله آینده‌پژوهی دور و آینده‌پژوهی نزدیک و رابطه آن با تکنولوژی، می‌بایست به سوالات آینده‌پژوهی نزدیک توجه داشت و به دنبال پاسخ‌های آن گشت. سوالاتی که یا به آن دست یافته‌ایم و یا به زودی خواهیم رسید، مانند؛ کار کردن ربات‌ها در خانه، الگوریتم‌های جستجو، سلاح‌های پیشرفته، این‌ها مواردی هستند که ضرورت دارند و واقعیت پیدا می‌کنند و مسائل اخلاقی زیادی را به دنبال خواهند داشت.

وی ادامه داد: سوالات زیاد دیگری مطرح است که آیا اندروید دارای روح و بدن است؟ که این مسائل را در قالب فیلم و داستا‌ن‌ها می‌بینیم و من هم به این‌ها علاقه دارم، مانند مسافرت کردن در طول زمان و یا مسافرت کردن سریعتر از نور؛ از جمله برخی سوالات آینده پژوهی دور است و ما باید به سوالاتی رجوع کنیم که مربوط به آینده نزدیک می‌شوند که در حال حاضر به واقعیت پیوسته‌اند، مثل کار کردن ربات‌ها در خانه یا الگوریتم‌های جستجو، سلاح‌های پیشرفته که به وقوع پیوسته‌اند.

استاد دانشگاه باتلر بیان کرد: از آنجا که موضوع بحث ارتباط هوش مصنوعی و خداباوری است، قدم اول در صحبت درباره اخلاق خداباورانه است که من نمی‌خواهم درباره این موضوع، صفوفی که وجود دارد و تفاوت‌هایی که هست، صحبت کنم، طبیعتا یک سری اصول اخلاقی است که میان همه مشترک بوده و البته این اصول در علمکرد بین کسانی که خداباور هستند و نیستند، متفاوت جلوه می‌کند، مخصوصا متون مقدس ما که شرایطی را ایجاد می‌کنند، مانند؛ «ایثار» که از خودگذشتگی را بیان می‌کند، منتهی می‌تواند بر روی مباحث طلایی دیگر همچون؛ عصر طلایی خدمت به دیگران و ساختن تکنولوژی‌هایی که به مردم خدمت می‌کند، اثر بگذارد.

سخنران این نشست علمی ادامه داد: از جمله مسائلی که خیلی رایج است، بحث الگوریتم‌های سرچ در موتور‌های جستجویی مثل گوگل است. ممکن است در نگرش اولیه، بیشتر مردم این باور را داشته باشند که کار‌هایی که در فضای مجازی انجام می‌دهند، مظهری از اعتقاد یا دینشان نیست اما این لزوما درست نیست. مثلا، معقول این است که موتور‌های جستجوگر در نتایجی که نشان می‌دهند هیچ تعصبی ندارند و البته خلاف آن ثابت شده است که تمام داده‌هایی که خود آن‌ها کار می‌کند توسط انسان‌هایی که خالی از تعصب نیستند، برنامه‌ریزی شده است. لذا اگر برنامه‌ای باشد که صد در صد هم صحیح باشد با توجه به داده‌های غلطی که دارند، نتیجه‌ای هم که به دست می‌آید غلط است.

مکگراث تصریح کرد: بیشتر کشور‌هایی که صاحب شرکت‎های بزرگ تکنولوژی هستند مسئولیت چنین اشتباهات موتور‌های جستجوگر را برعهده نمی‌گیرند و مسئولیت را برمی‌گردانند به سمت مردم که داده‌ها را وارد کرده‌اند.

وی تأکید کرد: اتفاقی که در این میان رخ می‌دهد، این است که ما اطلاعات خام غلط را به خروجی‌های غلط تبدیل می‌کنیم و این خروجی‌های غلط باعث تغییر نگرش‌ها می‌شود و بر اساس تکرار این اطلاعات غلط و تغیر نگرش‌ها، یک سری اطلاعات جدید به وجود می‌آید که خود این‌ها می‌شوند منابع جدید هوش مصنوعی و در آینده که اطلاعات جدیدتری که بر منابع غلط است را به جود می‌آورد. این مثال خودش را در مباحث اخلاقی کاملا نمایش می‌دهد، مثلا افرادی طرفدار طرح‌هایی هستند که این طرح‌ها سبب توطئه می‌شود و بر پایه اطلاعات غلط است. اطلاعاتی که سبب تنفر، یا سبب رفع اتهام می‌شود و تمام این موارد بر پایه داده‌های غلط شکل گرفته است.

استاد دانشگاه باتلر اظهار کرد: وقتی وارد انتخاب‌های اخلاقی پیچیده‌تر شده‌ایم، این را متوجه می‌شویم که در واقع انتخاب‌هایی که ما داریم از یک برنامه نویسی صفر و یک که وجود دارد خیلی پیچیده‌تر است. مثلا مواردی که در آن‌ها احتمالاتی وجود دارد که جنبه ایجابی و سلبی دارد. این را می‌دانیم که خیلی از استدلال‌های اخلاقی در جایی ذکر نشده و بسیار مبهم است. مسائلی هست که در علم اخلاق نیامده و با این وضعیت چگونه می‌توانیم مسائل اخلاقی را وارد هوش مصنوعی کنیم.

وی با طرح این سوال که از هوش مصنوعی چه چیزی را می‌توانیم یاد بگیریم؟ پاسخ داد: اولین چیزی که می‌توانیم یاد بگیریم این است که طبق یک گفته معروف؛ خیلی از کامپیوتر‌ها نمی‌دانند که چکار می‌کنند و البته ما هم در بعضی شرایط خاص همینطور هستیم که فقط عکس‌العمل داریم و یا در نهایت بی‌حرکت می‌شویم، نمی‌دانیم چه کاری باید انجام دهیم و لذا باید برگشت داشته باشیم واخلاقیات خودمان را بررسی و منظم کنیم. نکته دیگر در خصوص هوش مصنوعی اینکه باید تسلیم داده‌های ناعادلانه موتور‌های جستجوگر شویم و سعی کنیم از هوش مصنوعی به سمت حکمت مصنوعی سیر کنیم و این حکمت مصنوعی سبب می‌شود حکمت درونی ما هم بیدار شود.

انتهای پیام
captcha