ردپای هوش مصنوعی «کلاد» در بمباران کاراکاس
گروه بینالملل دفاعپرس: روزنامه وال استریت ژورنال روز شنبه فاش کرد که مدل هوش مصنوعی «کلاد» که توسط شرکت «آنتروپیک» توسعه یافته، در عملیات ارتش آمریکا برای ربودن «نیکلاس مادورو» رئیسجمهور ونزوئلا مورد استفاده قرار گرفته است. این رویداد، نمونهای منحصر به فرد از چگونگی بهرهبرداری وزارت دفاع آمریکا از فناوری هوش مصنوعی در عملیاتهای نظامی به شمار میرود.

اساسنامه کلاد که توسط آنتروپیک تهیه شده، به صراحت کاربرد این ابزار را در اهداف خشونتآمیز، توسعه سلاحها و جاسوسی ممنوع کرده است. با این حال در جریان عملیات آمریکاییها کاراکاس به صورت گسترده بمباران شد و ۸۳ جان باختند. افشای چنین اطلاعاتی بحثهای جهانی پیرامون نقش هوش مصنوعی در درگیریهای مسلحانه را تشدید میکند.
آنتروپیک نخستین شرکت توسعهدهنده هوش مصنوعی است که ابزار آن در یک عملیات طبقهبندیشده توسط وزارت دفاع آمریکا به کار گرفته شده است. با این حال جزئیات دقیق نحوه استفاده از کلاد که قابلیتهایی چون هدایت پهپادهای خودران را دارد، هنوز نامشخص باقی مانده است.
سخنگوی آنتروپیک از اظهارنظر مستقیم درباره استفاده از کلاد در این عملیات خودداری و در عین حال تأکید کرد که هرگونه بهرهبرداری از این ابزار باید با سیاستهای استفاده شرکت همخوانی داشته باشد. وزارت دفاع آمریکا نیز در برابر این ادعاها سکوت اختیار کرده است.
وال استریت ژورنال به نقل از منابع ناشناس گزارش داد که کلاد از طریق شراکت آنتروپیک با شرکت «پالانتیر تکنولوژیز» -پیمانکار وزارت دفاع و آژانسهای اجرای قانون فدرال آمریکا- در اختیار ارتش قرار گرفته است. پالانتیر از اظهارنظر در این زمینه امتناع ورزید.
این رویداد در حالی رخ میدهد که ارتشهای جهان از جمله آمریکا روز به روز بیشتر به هوش مصنوعی تکیه میکنند. برای مثال ارتش رژیم صهیونیستی از پهپادهای مجهز به قابلیتهای خودکار در غزه استفاده کرده و هوش مصنوعی را برای پر کردن بانک اهداف خود به کار گرفته است. ارتش آمریکا نیز در سالهای اخیر از هوش مصنوعی برای رهگیری اهداف در حملات به عراق و سوریه بهره برده است.

منتقدان نسبت به کاربرد هوش مصنوعی در فناوریهای تسلیحاتی و سیستمهای سلاحهای خودکار هشدار دادهاند. آنها به اشتباهات ناشی از تصمیمگیری رایانهها اشاره میکنند که میتواند منجر به کشته شدن افراد بیگناه شود. شرکتهای هوش مصنوعی با چالش چگونگی تعامل فناوریهای خود با بخش دفاع روبهرو هستند.
«داریو آمودی» مدیرعامل آنتروپیک، بر لزوم وضع قوانین و مقررات و تنظیمگری برای جلوگیری از آسیبهای ناشی از کاربرد هوش مصنوعی تأکید کرده و نسبت به استفاده از آن در عملیاتهای مرگبار خودکار و نظارت در آمریکا ابراز نگرانی کرده است.
این رویکرد محتاطانه ظاهرا وزارت دفاع آمریکا را ناراضی کرده است. «پیت هگسث» وزیر جنگ آمریکا در ژانویه اعلام کرد که وزارتخانه از مدلهای هوش مصنوعی که اجازه جنگیدن نمیدهند، استفاده نخواهد کرد. پنتاگون در همان ماه همکاری با شرکت xAI متعلق به ایلان ماسک را رسما اعلام کرد. علاوه بر این وزارت دفاع از نسخههای سفارشی هوش مصنوعی گوگل جمینی و سامانههای اوپنایآی برای حمایت از تحقیقات استفاده میکند.
انتهای پیام/ ۱۳۴


