چرا باید از هوش مصنوعی ترسید

مروری بر شاخص‌ترین نگرانی‌های کارشناسان در مورد توسعه سریع و شتاب‌زده هوش مصنوعی و تهدیدات بالقوه این فناوری، نشان می‌دهد که عواقب این فناوری اعتماد، اخلاق و دموکراسی را نشانه می‌گیرد.
کد خبر: ۵۹۲۰۹۰
تاریخ انتشار: ۰۵ خرداد ۱۴۰۲ - ۲۳:۲۰ - 26May 2023

چرا باید از هوش مصنوعی ترسیدبه گزارش گروه سایر رسانه‌های دفاع‌پرس، در بحبوحه شهرت و محبوبیت جهانی هوش مصنوعی مولد و رشد چشمگیر کاربران «ChatGPT»، در ماه فوریه ۲۰۲۳ بازوی تحقیقاتی وزارت دفاع ایالات متحده آمریکا اعلامیه‌ای منتشر کرد که براساس آن «یک ربات هوش مصنوعی با موفقیت یک جنگنده «F۱۶» را در آسمان کالیفرنیای جنوبی به پرواز درآورد. این خبر توجه نسبتاً کمی را به خود جلب کرده و حقیقتی را فاش کرد که در هیاهوی موضوعات مربوط به هوش مصنوعی مولد گم شده است. رقابت بر سر توسعه هوش مصنوعی محدود به حوزه‌های فناوری، تجاری و بوروکراتیک نمی‌شود و حوزه مهم نظامی را هم در بر می‌گیرد. برخی نگرانی‌ها حاکی از آن است که رقابت شدید کشور‌ها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.

سوال مهمی که ممکن است برای هر شخص دغدغه‌مندی پیش بیاید این است که این فناوری جدید چه هشدار‌هایی را در بطن قابلیت‌های شگفت‌انگیز خود برای جهان انسان‌ها دارد؟

نگرانی‌های بسیار در یکی از بستر‌های تولد هوش مصنوعی مولد

اخیراً بسیاری از شهروندان آمریکایی پس از ادعا‌هایی درمورد سوگیری و حمایت «ChatGPT» از دموکرات‌ها و عقاید آن‌ها احساس نگرانی می‌کنند. جمهوری‌خواهان در پاسخ به این ادعا چت‌بات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چت‌باتی عرضه کرده‌اند که با دیدگاه محافظه‌کاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده می‌شود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظه‌کار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده می‌تواند مواضع گروهی را ترویج کرده و موضع‌گیری‌های خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیده‌های مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بی‌طرف، به خدمتگزار منافع سیاسی سرمایه‌گذاران و سازندگان آن تبدیل شود.

چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است به‌صورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قوی‌ترین سلاح زمان ما» باشد.

ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.

او همچنین افزود: «درحالی‌که یک نفر از قابلیت‌های «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیت‌های آن برای برنامه‌ریزی یک حمله سایبری یا تروریستی استفاده می‌کند.»

یکی دیگر از نگرانی‌هایی که آمریکایی‌ها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاست‌جمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوری‌خواه آمریکایی هشدار داد که چین می‌تواند با استفاده از هوش مصنوعی، نقش عمده‌ای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئو‌ها جعلی مشابه افراد هشدار داد و راه‌حل این‌گونه بحران‌های احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.

هوش مصنوعی اخلاق دارد؟

دانشمندانی که در سال‌های اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشته‌اند، بیشتر در پی ایجاد مخلوقی با توانایی‌های فکری انسان بوده‌اند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق می‌شود. ربات‌های مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلان‌داده‌ها قائل به خوب و بد پاسخ‌های خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤال‌ها، منفی است.

طراحی سیستم‌های هوش مصنوعی اخلاق‌مدار با اصول اخلاقی مشترک بین انسان‌ها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانی‌هایی دارند که در صورت تلاش برای اخلاق‌مدار کردن هوش مصنوعی مولد زبانی، نظام‌های اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را می‌گیرند؟ چه کسی مسئول نظارت بر اخلاق‌مدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظام‌های اخلاقی را پس از تدوین، اجرا کند؟

واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعه‌دهندگانی هوش مصنوعی است، درحالی‌که نگرانی‌های اخلاقی در جایگاه دوم قرار می‌گیرد. برخی از کارشناسان معتقدند که توسعه‌دهندگان هوش مصنوعی و ابزار‌های مرتبط با آن در حالت خوش‌بینانه انگیزه کمی برای طراحی نظام‌های اخلاق‌مدار داشته و در حالت بدبینانه هیچ دغدغه‌ای ندارند!

بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابل‌تشخیص باشد نمی‌توان مضرات هوش مصنوعی را شناسایی کرده و راه‌حل مناسبی برای آن یافت. باتوجه‌به اینکه پایگاه‌های داده‌های هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمی‌توان انتظار معجزه و اهمیت‌دادن به اخلاق از این هوش مصنوعی داشت.

هوش مصنوعی مانند تمامی ابزار‌ها می‌تواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص می‌کنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعه‌ای اخلاقی‌تر بسازیم هوش مصنوعی اخلاقی‌تری خواهیم داشت در غیر این صورت هوش مصنوعی پیامد‌های بی‌اخلاقی بشر را با ذره‌بین قدرتمند خود چند برابر کرده و سر راه انسان قرار می‌دهد.

دست‌کاری ذهن انسان و نابودی دموکراسی

کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی می‌تواند تا جایی پیش برود که ذهن انسان را دستکاری کند.

بدبینانه‌ترین شکل ماجرا به‌دست‌آوردن قدرت و نابودی جهان است؛ اما حالت خوش‌بینانه آن ایجاد تصاویر نادرست، ویدئو‌های نادرست است که در نهایت منجر به نابودی اعتماد می‌شود.

انسان در مواردی نمی‌تواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بی‌بی‌سی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه می‌کند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است که‌رای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» به‌عبارت‌دیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین می‌برد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمی‌توانند بر اساس آن به فردی که واقعاً مدنظر آن‌هاست رأی دهند.

خالق هوش مصنوعی هشدار می‌دهد!

جفری هینتون که اخیراً از سمت خود به‌عنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبه‌ای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحال‌توسعه پیدا کند!

«پدرخوانده هوش مصنوعی»، در گفته‌های خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیش‌بینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشی‌گرفتن هوش مصنوعی بر بشر شود، نه‌تن‌ها بی‌فایده که ویرانگر خواهد بود.

هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوش‌ترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدل‌هایی مانند «Chat GPT»، هوش مصنوعی ممکن است کار‌ها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمی‌توان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.

او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسان‌های باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»

داعیه‌داران هوش مصنوعی

اگر داعیه‌داران هوش مصنوعی مولد را صاحبان شرکت‌های فناوری مانند «OpenAI»، شرکت توسعه‌دهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آن‌ها در حوزه‌های دیگر می‌توان تشخیص داد که اولویت این شرکت‌ها منافع اقتصادی و رقابت با سایر شرکت‌هاست.

جهان در حال حاضر با بسیاری از مشکلات فناوری‌هایی که این قبیل شرکت‌ها توسعه داده‌اند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دست‌وپنجه نرم می‌کند و پر واضح است که مدیریت این شرکت‌ها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالش‌هایی به‌مراتب بزرگ‌تر می‌برد.

اما اگر داعیه‌داران هوش مصنوعی را دولت‌هایی بدانیم که بستر شرکت‌های فناوری هستند می‌توانیم باتوجه به عملکرد سابق آن‌ها که مبتنی بر در نظر نگرفتن منافع کشور‌های غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملت‌ها و دولت‌ها و زیرسؤال‌بردن حاکمیت آن‌ها استفاده کنند.

منبع: مهر

انتهای پیام/ ۱۳۴

نظر شما
پربیننده ها