به گزارش گروه سایر رسانههای دفاعپرس، در بحبوحه شهرت و محبوبیت جهانی هوش مصنوعی مولد و رشد چشمگیر کاربران «ChatGPT»، در ماه فوریه ۲۰۲۳ بازوی تحقیقاتی وزارت دفاع ایالات متحده آمریکا اعلامیهای منتشر کرد که براساس آن «یک ربات هوش مصنوعی با موفقیت یک جنگنده «F۱۶» را در آسمان کالیفرنیای جنوبی به پرواز درآورد. این خبر توجه نسبتاً کمی را به خود جلب کرده و حقیقتی را فاش کرد که در هیاهوی موضوعات مربوط به هوش مصنوعی مولد گم شده است. رقابت بر سر توسعه هوش مصنوعی محدود به حوزههای فناوری، تجاری و بوروکراتیک نمیشود و حوزه مهم نظامی را هم در بر میگیرد. برخی نگرانیها حاکی از آن است که رقابت شدید کشورها بر سر هوش مصنوعی احتمالاً به حوزه نظامی هم کشیده شده و جهان را در معرض مخاطراتی مانند جنگ سرد یا حتی جنگ جهانی قرار خواهد داد.
سوال مهمی که ممکن است برای هر شخص دغدغهمندی پیش بیاید این است که این فناوری جدید چه هشدارهایی را در بطن قابلیتهای شگفتانگیز خود برای جهان انسانها دارد؟
نگرانیهای بسیار در یکی از بسترهای تولد هوش مصنوعی مولد
اخیراً بسیاری از شهروندان آمریکایی پس از ادعاهایی درمورد سوگیری و حمایت «ChatGPT» از دموکراتها و عقاید آنها احساس نگرانی میکنند. جمهوریخواهان در پاسخ به این ادعا چتبات مدافع جناح راست را وارد عرصه سیاست کردند. سازندگان مرورگر «TUSK»، چتباتی عرضه کردهاند که با دیدگاه محافظهکاران آمریکایی همسو است. این هوش مصنوعی مولد که «Gipper» نامیده میشود، عملکردی مشابه «ChatGPT» دارد، با این تفاوت که به نحوی کدگذاری شده که بتواند مانند یک محافظهکار عمل کند. تمامی این اتفاقات موید این موضوع است که هوش مصنوعی مولد که هم اکنون به منبع اطلاعات برای بسیاری تبدیل شده میتواند مواضع گروهی را ترویج کرده و موضعگیریهای خاص خود را داشته باشد. این ابزار فناورانه قابلیت این را دارد که در حوزه رسانه به جنگ عقیدههای مخالف سازندگان آن رفته و بجای منبع اطلاعات نسبتاً بیطرف، به خدمتگزار منافع سیاسی سرمایهگذاران و سازندگان آن تبدیل شود.
چندی پیش، جین ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیر ساخت ایالات متحده آمریکا (CISA)، هشدار داد که هوش مصنوعی ممکن است بهصورت توأمان، «قدرتمندترین قابلیت زمان ما» و «قویترین سلاح زمان ما» باشد.
ایسترلی معتقد است که مزایای هوش مصنوعی نیز همراه با تهدیداتی جدی است. ایسترلی تأکید کرد که هوش مصنوعی با تمام مزایایش ارزش به خطر انداختن امنیت را ندارد و باید تابع مقررات باشد.
او همچنین افزود: «درحالیکه یک نفر از قابلیتهای «ChatGPT» برای برگزاری یک مهمانی استفاده کرده فرد دیگری از قابلیتهای آن برای برنامهریزی یک حمله سایبری یا تروریستی استفاده میکند.»
یکی دیگر از نگرانیهایی که آمریکاییها در مورد هوش مصنوعی دارند، امکان تأثیرگذاری آن در انتخابات ریاستجمهوری ۲۰۲۴ این کشور است. پیت ریتکس سناتور جمهوریخواه آمریکایی هشدار داد که چین میتواند با استفاده از هوش مصنوعی، نقش عمدهای در انتخابات ۲۰۲۴ ایفا کند. او در جلسه کمیته روابط خارجی سنا در مورداستفاده از هوش مصنوعی برای ایجاد تصاویر و ویدئوها جعلی مشابه افراد هشدار داد و راهحل اینگونه بحرانهای احتمالی را آموزش مردم در حوزه رسانه و تقویت تفکر انتقادی دانست.
هوش مصنوعی اخلاق دارد؟
دانشمندانی که در سالهای اخیر، تمامی هم خود را بر توسعه هوش مصنوعی گذاشتهاند، بیشتر در پی ایجاد مخلوقی با تواناییهای فکری انسان بودهاند؛ اما مسئله این است که انسان علاوه بر قدرت تفکر، وجدان هم دارد که باعث تلازم او به اخلاق میشود. رباتهای مولدی مانند «ChatGPT» هنگام پاسخگویی بر مبنای کلاندادهها قائل به خوب و بد پاسخهای خود هستند؟ تعریفی از اخلاق دارند؟ در حال حاضر پاسخ این سؤالها، منفی است.
طراحی سیستمهای هوش مصنوعی اخلاقمدار با اصول اخلاقی مشترک بین انسانها کار بسیار دشواری خواهد بود. کارشناسان اخلاق نگرانیهایی دارند که در صورت تلاش برای اخلاقمدار کردن هوش مصنوعی مولد زبانی، نظامهای اخلاقی چه کسانی باید اعمال شوند؟ چه کسانی این تصمیم را میگیرند؟ چه کسی مسئول نظارت بر اخلاقمدار بودن هوش مصنوعی خواهد بود؟ چه کسی باید این نظامهای اخلاقی را پس از تدوین، اجرا کند؟
واقعیت این است که رقابت ژئوپلیتیک و اقتصادی، محرک اصلی توسعهدهندگانی هوش مصنوعی است، درحالیکه نگرانیهای اخلاقی در جایگاه دوم قرار میگیرد. برخی از کارشناسان معتقدند که توسعهدهندگان هوش مصنوعی و ابزارهای مرتبط با آن در حالت خوشبینانه انگیزه کمی برای طراحی نظامهای اخلاقمدار داشته و در حالت بدبینانه هیچ دغدغهای ندارند!
بعضی دیگر نیز معتقدند تا وقتی مبنای تصمیمات هوش مصنوعی غیرقابلتشخیص باشد نمیتوان مضرات هوش مصنوعی را شناسایی کرده و راهحل مناسبی برای آن یافت. باتوجهبه اینکه پایگاههای دادههای هوش مصنوعی در سیستم فعلی موجود است و مشکلات اخلاقی بسیار نظام حال حاضر، نمیتوان انتظار معجزه و اهمیتدادن به اخلاق از این هوش مصنوعی داشت.
هوش مصنوعی مانند تمامی ابزارها میتواند برای «خوب یا بد» استفاده شود و بشر و سازندگان در نهایت کارکرد اصلی آن را مشخص میکنند. در نهایت هوش مصنوعی امتدادی از خودمان خواهد بود و تا جایی که بتوانیم و بخواهیم جامعهای اخلاقیتر بسازیم هوش مصنوعی اخلاقیتری خواهیم داشت در غیر این صورت هوش مصنوعی پیامدهای بیاخلاقی بشر را با ذرهبین قدرتمند خود چند برابر کرده و سر راه انسان قرار میدهد.
دستکاری ذهن انسان و نابودی دموکراسی
کارشناسان و محققان سر این مسئله که هوش مصنوعی نحوه کار و زندگی ما را تغییر خواهد داد اجماع دارند. همه تغییرات میزانی از ریسک را دارد، اما مقدار و طیف این ریسک بسیار مهم است. برخی معتقدند هوش مصنوعی میتواند تا جایی پیش برود که ذهن انسان را دستکاری کند.
بدبینانهترین شکل ماجرا بهدستآوردن قدرت و نابودی جهان است؛ اما حالت خوشبینانه آن ایجاد تصاویر نادرست، ویدئوهای نادرست است که در نهایت منجر به نابودی اعتماد میشود.
انسان در مواردی نمیتواند مطمئن باشد فلان سیاستمدار واقعاً این حرف را زده یا صدا و تصویر و متن و ویدئو ساخته هوش مصنوعی است. جسیکا سیسیل رئیس سابق دفتر بیبیسی و مؤسس «Trusted News Initiative» که با اطلاعات نادرست مبارزه میکند در مصاحبه با پرایم تایم گفت: «دموکراسی متکی بر این است کهرای دهندگان بتوانند به اطلاعات واقعی دسترسی داشته و طبق بررسی و تحلیل ذهن خود آن را باور کرده یا نکنند و سپس گفتگویی مشترک پیرامون حقایق مورد توافق داشته باشند.» بهعبارتدیگر هوش مصنوعی با ایجاد اطلاعات نادرست اعتماد مردم را از بین میبرد و بدون اینکه افراد بدانند اطلاعاتی واقعی است یا نه نمیتوانند بر اساس آن به فردی که واقعاً مدنظر آنهاست رأی دهند.
خالق هوش مصنوعی هشدار میدهد!
جفری هینتون که اخیراً از سمت خود بهعنوان معاون مهندسی گوگل استعفا داد تا زنگ خطرات هوش مصنوعی را به صدا در آورد، در مصاحبهای که اخیراً از او منتشر شد هشدار داد که جهان باید راهی برای کنترل این فناوری درحالتوسعه پیدا کند!
«پدرخوانده هوش مصنوعی»، در گفتههای خود ضمن تأکید بر تأثیرات مثبت هوش مصنوعی در پزشکی، علم مواد، پیشبینی زلزله و سیل و…، معتقد است که تمام این فواید اگر باعث پیشیگرفتن هوش مصنوعی بر بشر شود، نهتنها بیفایده که ویرانگر خواهد بود.
هینتون همچنین معتقد است بسیاری از همکاران وی که از باهوشترند مانند او نگران هستند. هینتون خاطرنشان کرد که باتوجه به مدلهایی مانند «Chat GPT»، هوش مصنوعی ممکن است کارها را کارآمدتر از مغز انسان انجام دهد. او معتقد است که نمیتوان مطمئن بود که اهداف هوش مصنوعی به نفع انسان و هم راستا با منافع او باشد.
او همچنین تأکید کرد که «ممکن است هیچ راهی برای جلوگیری از یک پایان بد نباشد؛ اما واضح است که انسانهای باهوش و متخصص قادرند راهی برای مقابله با این چالش بیابند؛ اما این اتفاق باید قبل از اینکه هوش مصنوعی خیلی باهوش شود بیفتد!»
داعیهداران هوش مصنوعی
اگر داعیهداران هوش مصنوعی مولد را صاحبان شرکتهای فناوری مانند «OpenAI»، شرکت توسعهدهنده «ChatGPT»، بدانیم، باتوجه به سابقه عملکرد آنها در حوزههای دیگر میتوان تشخیص داد که اولویت این شرکتها منافع اقتصادی و رقابت با سایر شرکتهاست.
جهان در حال حاضر با بسیاری از مشکلات فناوریهایی که این قبیل شرکتها توسعه دادهاند؛ مانند نقض حریم شخصی کاربران، انتشار اخبار جعلی و اطلاعات نادرست و ارائه محتوای نامناسب به کودکان و نوجوانان، در فضای مجازی دستوپنجه نرم میکند و پر واضح است که مدیریت این شرکتها آینده هوش مصنوعی و انسان را به مقصدی نامعلوم، با چالشهایی بهمراتب بزرگتر میبرد.
اما اگر داعیهداران هوش مصنوعی را دولتهایی بدانیم که بستر شرکتهای فناوری هستند میتوانیم باتوجه به عملکرد سابق آنها که مبتنی بر در نظر نگرفتن منافع کشورهای غیر همسو و در برخی از موارد همسو با آنان است، این احتمال را بدهیم که از این ابزار جهت افزایش سلطه خود بر سایر ملتها و دولتها و زیرسؤالبردن حاکمیت آنها استفاده کنند.
منبع: مهر
انتهای پیام/ ۱۳۴