به گزارش گروه سایر رسانههای دفاع پرس، بن تارناف (Ben Tarnoff) روزنامه نگار ساکن نیویورک در یادداشتی نوشت: ماه گذشته هفدهمین سالگرد حملات یازدهم سپتامبر بود. با این حادثه وبال گردن جدیدی به سراغمان آمد: ما برای مدتی چنان طولانی در افغانستان حضور داریم که اگر کسی بعد از این حملات به دنیا آمده باشد، اکنون آنقدر بزرگ شده که بتواند در این جنگ حضور یابد. همچنین وی میتواند در شش جای دیگر که ما رسما در آنها در حال جنگ به سر میبریم خدمت کند، حال آن 133 کشوری که نیروهای عملیاتهای ویژه ما تنها درنیمه اول سال 2018 ماموریتهایی را در آنها انجام دادهاند به جای خود.
جنگهای یازدهم سپتامبر همچنان ادامه دارند و هیچ پایانی برای آنها در چشم انداز نیست. اکنون پنتاگون در حال سرمایه گذاری هنگفتی روی فناوریهایی است که این جنگها را تشدید خواهد کرد. با به کارگرفتن تازهترین ابزارهایی که صنعت فناوری عرضه میکند، ارتش آمریکا درحال ساخت شکل خودکارتری از جنگ است؛ شکلی که ظرفیت آن را برای به راه انداختن جنگ در هر جای زمین و برای همیشه به شدت افزایش خواهد داد.
روز جمعه مهلت مزایده وزارت دفاع برای یکی از بزرگترین قراردادهای فناوری در تاریخ این وزارتخانه یعنی «زیرساخت دفاعی سرمایه گذاری مشترک» (جدی) به پایان میرسد. جدی پروژهای جاه طلبانه برای ساخت سیستمهای محاسباتی ابری است که در سراسر جهان به خدمت نیروهای آمریکایی درخواهد آمد، از تجزیه و تحلیل پشت میز در ویرجینیا گرفته تا سربازان در حال گشتزنی در نیجر. این قرارداد ارزشی بالغ بر 10 میلیارد دلار در طول بیش از 10 سال دارد و به همین دلیل است که شرکتهای بزرگ فناوری با این شدت برای برنده شدن در آن تلاش میکنند. (جز گوگل که کارکنان آن طی کارزاری، با اعمال فشار به مدیریت این شرکت، گوگل را مجبور به کناره گیری از این رقابت کردند.)
در نگاه اول جدی شاید چیزی شبیه یک پروژه نوسازی دیگر در حوزه فناوری اطلاعات به نظر آید. این حوزه در دولت بیشتر تمایل دارد با فاصلهای مناسب پشت سر سیلیکون، ولی حرکت کند، حتی جایی برخوردار از بودجههای دست و دلبازانهای، چون پنتاگون. جای پای دیجیتال وزارت دفاع با حدود سه میلیون و 400 هزار کاربر و چهار میلیون وسیله بسیار بزرگ است. انتقال دادن حتی بخشی از این حجم کاری به یک تامین کننده خدمات ابری نظیر آمازون نیز بی شک کارآمدی آن را بهبود خواهد داد.
اما نیروی واقعی که جدی را به حرکت در میآورد تمایل به تسلیحاتی کردن هوش مصنوعی است؛ چیزی که وزارت دفاع اندک اندک دارد آن را «رزم الگوریتمی» مینامد و با یکجا کردن دادههای نظامی در درون یک پلتفرم ابری مدرن و استفاده از خدمات یادگیری ماشینی که این قبیل پلتفرمها برای تجزیه و تحلیل دادهها در اختیار میگذارند، جدی به پنتاگون کمک خواهد کرد تا جاه طلبیهای هوش مصنوعی خود را تحقق بخشد.
مقیاس این جاه طلبی با گذشت زمان در ماههای اخیر شفافتر شده است. در ماه ژوئن پنتاگون «مرکز اطلاعات مصنوعی مشترک» را تاسیس کرد که بر حدود 600 پروژه هوش مصنوعی که درحال حاضر با هزینهای یک میلیارد و 700 میلیون دلاری در سطح این وزارتخانه در دست اجراست، نظارت خواهد کرد؛ و در ماه سپتامبر «سازمان پروژههای تحقیقات پیشترفته دفاعی» (دارپا) و پنتاگون با اعلام راه اندازی بخش تحقیق و توسعه اعلام کردند که این بخش مبلغی بالغ بر 2 میلیارد دلار را ظرف حدود پنج سال آینده در زمینه تحقیقات تسلیحاتی هوش مصنوعی سرمایه گذاری خواهد کرد.
تاکنون گزارشها در مورد ریخت و پاشهای پنتاگون روی هوش مصنوعی عمدتا بر چشم انداز تسلیحات خودکار - روباتهای قاتل ترمیناتورمانندی که بدون هیچ ارتباطی با یک عامل انسانی انسانها را درو میکند - تمرکز داشته است. در واقع این سناریوی هولناکی برای آیندهای نزدیک است و اعمال نوعی ممنوعیت بین المللی درمورد تسلیحات خودکار از نوعی که «کارزار متوقف کردن روباتهای قاتل» دنبال میکند، کاملا ضرورت دارد.
اما هوش مصنوعی قبلا شروع به بازنویسی معنای جنگ کرده است، حتی اگر (هنوز) شکل ترمیناتورهای به معنای واقعی را به خود نگرفته باشند. این فرایندها کمتر سینمایی هستند، اما به همان اندازه از راههای ترسناکی برای تسلیحاتی کردن هوش مصنوعی استفاده میکنند.
با یک بودجه نظامی در مجموع بیشتر از بودجههای نظامی چین، روسیه، عربستان سعودی، هند، فرانسه، بریتانیا و ژاپن، و حدود 800 پایگاه در سراسر جهان، آمریکا از یک قدرت آتش بی نظیر و توانایی بی مانند برای به کارگرفتن این قدرت آتش در هر جای کره زمین برخوردار است.
ارتش آمریکا میداند چطوربکشد. بخش سختتر کار فهمیدن این است که چه کسانی را باید کشت. در یک جنگ سنتیتر شما خیلی ساده دشمن را میکشید. اما درکشمکشی که هیچ مرز ملی در آن وجود ندارد، هیچ میدان جنگ ثابت و هیچ متخاصم متعارفی در آن وجود ندارد، چه کسی دشمن است؟
این پرسش کلیدی جنگ همیشگی است. همچنین یکی از مشخصات کلیدی طراحی آن است. ابهام در اینکه دشمن چیست، تداوم کشمکش را برای تقریبا دو دهه و گسترش آن را در بیش از 70 کشور امکان پذیر کرده است؛ که مرحمتی است برای پیمانکاران، بروکراتها و سیاستمدارانی که زندگی شان را از قِبل نظامی گری آمریکایی میگذرانند. اگر جنگ یک شیادی باشد، به قول اسطوره نیروی دریایی اسمدلی باتلر، جنگ همیشگی یکی از طولانیترین این دغلکاریها تاکنون است.
اما مبهم بودن دشمن، چالشهای مشخصی را نیز به وجود میآورد. نگاه کردن به نقشهای از ویتنام شمالی و انتخاب مکانهایی برای بمب انداختن یک چیز است، اما حرکت در میان مقادیر عظیمی از اطلاعات از سراسرجهان برای شناسایی یک نامزد خوب برای انجام یک حمله پهبادی چیزی به کلی متفاوت است. وقتی که دشمن در همه جا باشد، شناسایی هدف بسیار بیشتر کار میبرد. اینجا همان جایی است که هوش مصنوعی - یا دقیقتر بگوییم یادگیری ماشینی- به میدان میآید. یادگیری ماشینی میتواند به خودکارسازی یکی از طاقت فرساترین و زمان برترین جنبههای جنگ همیشگی یعنی یافتن کسانی که باید آنها را کشت کمک کند.
پروژه ماون پنتاگون قبلا این ایده را به مرحله عمل گذاشته است. ماون که با عنوان «تیم کارکردی رزم الگوریتمی» نیز از آن یاد میشود، به تازگی بیشتر به این دلیل به عناوین خبری راه یافته که یک کارمند طغیانگر درگوگل درمورد دخالت این شرکت در این پروژه سخن گفته است. ماون پروژه هوش مصنوعی «پت فایندر» نیروی نظامی است. مرحله اولیه آن به استفاده از یادگیری ماشینی برای اسکن کردن فیلمهای ویدئویی تهیه شده توسط پهبادها برای کمک به شناسایی افراد، وسایل نقلیه و ساختمانهایی که ممکن است ارزش بمباران داشته باشند مربوط میشود.
سرتیپ جک شاناهان مدیر این پروژه میگوید: «ما تحلیلگرانی داریم که با نگاه به کل ویدئوی درحال پخش هر بار شش، هفت، هشت، نه، ده، یا یازده ساعت به نمایشگرها زل میزنند.» نرم افزار ماون این کار را به طور خودکار انجا میدهد و بعد یافته هایش را به یک انسان منتقل میکند. تاکنون به کارگیری این برنامه توفیقات بزرگی به همراه داشته است: این نرم افزار در شش مکان جنگی در خاورمیانه و آفریقا به کارگرفته شده است. هدف این است که در نهایت این نرم افزار روی خود پهبادها بارگذاری شود تا آنها بتوانند در زمان واقعی اهداف را مکان یابی کنند.
آیا این فناوری دقت را بالا نمیبرد و در نتیجه تلفات غیرنظامیان را کاهش نمیدهد؟ این استدلال شایعی است که بالادستیها هم در پنتاگون و هم در سیلیکون، ولی برای دفاع از همکاری خود در پروژههایی نظیر ماون مطرح میکنند. جن پالکا از «کدی برای آمریکا» با عبارت «کاردهای تیز» در برابر «کاردهای کند» به آن اشاره میکند: کاردهای تیزتر میتوانند به ارتش کمک کنند که جان انسانها را نجات دهد.
در مورد هوش مصنوعی تسلیحاتی شده، اما این کاردهای مورد بحث به طورخاصی تیز نیستند. هیچ کمبودی در داستانهای ترسناکی وجود ندارد که نشان میدهند چه اتفاقی میافتد اگرنظارت انسانی به دلیل یک نقص یا الگوریتمهای دچار تبعیض شده - الگوریتمهایی که نمیتوانند چهرههای سیاه را تشخیص دهند یا در کارهای پلیسی و مجازاتهای جنایی سوگیریهای نژادی از خود نشان میدهند- از روی آنها برداشته شود. آیا واقعا میخواهیم پنتاگون از همین فناوری برای تعیین این استفاده کند که روی سرچه کسی باید بمب انداخت؟
اما مشکل عمیقتر این استدلال بشردوستانه برای رزم الگوریتمی، این فرض است که ارتش آمریکا ضرورتا نیرویی خیرخواهانه است. میلیونها تن در سراسر جهان چنین چیزی را قبول ندارند. تنها در سال 2017 حملات آمریکا و متحدانش در عراق و سوریه موجب کشته شدن تا شش هزار غیرنظامی شدهاند. چنین ارقامی احتمالا نشانگر چند اشتباه صادقانه دراینجا و آنجا نیست، بلکه از یک بی تفاوتی سیستماتیک نسبت به «تلفات جانبی» خبر میدهند. در واقع دولت آمریکا مکررا گردهماییهای غیرنظامیان مثل مجالس عروسی را به این امید که بتواند یک هدف با ارزش بالا را به قتل برساند مورد بمباران قرار داده است.
بعلاوه مرز بین غیرنظامی و ستیزه جو در عصر جنگ همیشگی به شدت مخدوش شده است. یک گزارش از اینترسپت حکایت از این دارد که ارتش آمریکا هرکسی را که در حملات «هدفگیری شده» خود به قتل میرساند، با عنوان «دشمن کشته شده در حال اقدام» طبقه بندی میکند، حتی اگر یکی از این اهداف نباشند. این به اصطلاح «حملات امضایی» که از طرف ارتش آمریکا و سیا انجام میشوند، حقه مشابهی را درمورد مفهوم ستیزه جو به کار میبرند. اینها حملات پهبادی به افرادی با هویت شناخته شده نیستند، بلکه بر اساس مشاهده «امضاهایی» مشخص از کسانی که ظن آن میرود ستیزه جو باشند انجام میشوند؛ امضاهای مبهمی که بسیار محتمل است مختصات مورد نظر را با چیزهایی مشابه اشتباه بگیرند.
به عبارت دیگر مشکل در کیفیت ابزارها نیست، بلکه در سازمانی است که آنها را تولید میکند؛ و هوش مصنوعی تنها آن سازمان را بی رحمتر میکند. جنگ همیشگی اقتضا میکند که آمریکا دشمنان خود را در همه جا ببیند. هوش مصنوعی وعده میدهد که این دشمنان را سریعتر پیدا کند؛ حتی اگر تمام چیزی که یک دشمن تلقی میشود، مشاهده یک الگوی رفتاری باشد که یک مدل یادگیری ماشینی (طبقه بندی شده) آن را با فعالیتهای خصمانه مرتبط میکند. میتوانید این کار را مرگ به دست دادههای دیجیتال بزرگ بنامید.
هوش مصنوعی همچنین با دادن امتیازاتی به برخی از بزرگترین شرکتهای کشور برای استمرار بخشیدن به این جنگ ها، پتانسیل این را دارد که جنگ همیشگی را همیشگیتر کند. سیلیکون، ولی همیشه ارتباطات نزدیکی با ارتش آمریکا داشته است، اما رزم الگوریتمی عمق بیشتری به رابطه شرکتهای بزرگ فناوری با مجموعه نظامی- صنعتی میدهد و به میلیاردرهایی، چون جف بزوس انگیزهای قدرتمند میبخشد تا اطمینان حاصل کنند که جنگ همیشگی برای همیشه ادامه پیدا میکند. دشمنانی پیدا خواهند شد و پولهایی به جیب زده خواهد شد.
منبع: فارس