ردپای هوش مصنوعی در قراردادهای محرمانه نظامی | پنتاگون برخی اهداف حمله به ایران را با هوش مصنوعی شناسایی کرد
به گزارش اقتصادنیوز، در روزهای اخیر، مقابل دفتر مرکزی شرکت OpenAI در سانفرانسیسکو، گروه کوچکی از معترضان با گچهای رنگی روی پیادهرو این پیام را نوشتند: «از آزادی دفاع کنید، نظارت جمعی را متوقف کنید، و قرارداد را تغییر دهید.»
اعتراض این گروه، به توافق تازه این شرکت با وزارت دفاع آمریکا بود؛ قراردادی که به موجب آن، از فناوری هوش مصنوعی در محیطهای محرمانه نظامی استفاده خواهد شد.
هشدار کارشناسان حقوقی
متیو ونگ در آتلانتیک نوشت: به گفته منتقدان، این همکاری میتواند در نهایت به استفاده از مدلهای هوش مصنوعی چت جی پی تی در حوزههایی مانند جمعآوری اطلاعات، تحلیل دادههای گسترده و حتی تصمیمگیریهای مرتبط با جنگ منجر شود. همین مسئله باعث شده تا برخی کارشناسان حقوقی نسبت به پیامدهای آن هشدار دهند.
وعده وجود برخی از خط قرمزها
مدیرعامل اوپن ای آی، سم آلتمن، در یادداشتی محرمانه که برای کارکنان ارسال کرده بود اعلام کرد که شرکت قصد دارد تا خطوط قرمز مشخصی را برای این همکاری ها تعیین کند. به گفته آلتمن، هدف این محدودیتها جلوگیری از دو مورد خاص است. نخست نظارت گسترده داخلی بر شهروندان آمریکایی، و دوم استفاده از سلاحهای کاملا خودکار مرگبار.
این محدودیتها شباهت زیادی به شروطی که پیشتر شرکت آنتروپیک، در همکاری با پنتاگون مطرح کرده بود دارد. همان شروطی که درنهایت باعث تنش میان این شرکت و دولت شد. در نهایت وزیر دفاع آمریکا، پیت هگست، این شرکت را تهدیدی برای زنجیره تأمین اعلام کرد؛ تصمیمی که عملا استفاده از فناوریهای این شرکت در پروژههای نظامی را محدود کرد.
همین موضوع باعث شده تا این سوال برای برخی تحلیلگران پیش بیاید که آیا OpenAI شرایط خاصی را که پیشتر رقیب او حاضر به قبول آن نبود، پذیرفته است؟

نگرانی افکار عمومی از نظارت جمعی
در این میان، این شرکت بخشی از متن قرارداد خود با پنتاگون را منتشر کرده است؛ اما کارشناسان حقوقی معتقدند که همین بخشها نیز ابهامات زیادی دارند. در یکی از بندهای قرارداد آمده است که سیستم هوش مصنوعی میتواند برای تمامی کاربردهای قانونی استفاده شود.
این عبارت ساده، در عمل دامنه بسیار گستردهای دارد. به گفته برخی متخصصان، قوانین موجود در آمریکا هنوز امکان شکلهایی از نظارت گسترده را فراهم میکند.
برای مثال در قرارداد به قوانین اطلاعاتی آمریکا، از جمله قانون نظارت بر اطلاعات خارجی مصوب 1978 اشاره شده است. این قانون در گذشته به نهادهای اطلاعاتی اجازه می داد تا دادههایی مانند تماسهای بینالمللی یا دادههای خریداریشده از شرکتهای خصوصی را جمعآوری و تحلیل کند.
ورود هوش مصنوعی مولد به این حوزه میتواند تحلیل چنین دادههایی را بسیار سریعتر و دقیقتر انجام داده و تصویری گسترده را از رفتار و ارتباطات افراد نشان بدهد. تصویری که بسیاری آن را نوعی نظارت جمعی تلقی می کنند.
شناسایی اهداف در ایران
نگرانی دیگر به کاربرد نظامی مستقیم این فناوری مربوط میشود. در متن قرارداد به یک دستورالعمل نظامی اشاره شده است.
اما این دستورالعمل سلاحهای اتومات را ممنوع نمیکند؛ بلکه چارچوبی برای توسعه و استفاده از آنها تعیین کرده است. به همین دلیل برخی کارشناسان معتقدند که این قرارداد میتواند در نهایت راهی را برای استفاده از فناوریهای هوش مصنوعی در سامانههای تسلیحاتی پیشرفته فراهم کند.
البته برخی گزارشها نشان میدهند که فناوریهای هوش مصنوعی شرکت آنتروپیک پیشتر در تحلیل اطلاعات نظامی و حتی شناسایی اهداف در ایران مورد استفاده قرار گرفتهاند، هرچند این شرکت اجازه استفاده از محصولاتش در سلاحهای کاملا اتوماتیک را نداده بود.
اصلاح قرارداد برای کاهش نگرانیها
پس از بالا گرفتن انتقادها، اوپن ای آی اعلام کرد که متن قرارداد را اصلاح کرده است. در نسخه جدید، تأکید شده است که سیستم هوش مصنوعی نباید عمدا برای نظارت داخلی بر شهروندان آمریکایی استفاده شود و حتی استفاده از دادههای خریداریشده از شرکتها برای ردیابی افراد نیز ممنوع است.
با این حال برخی کارشناسان میگویند واژههایی مانند به عمد یا بهطور مستقیم، همچنان ابهام زیادی داشته و ممکن است مورد سو استفاده قرار گیرد. برای مثال ممکن است در آینده جمعآوری دادهها با عنوان اقدامی غیرعمدی یا فرعی توجیه شود.
همچنین در متن قرارداد از اصطلاح «افراد و اتباع آمریکایی» استفاده شده که ممکن است شامل برخی مهاجران یا ساکنان غیر دائم نشود.

شرکت ها باید انتخاب کنند
اوپن ای آی اعلام کرده که علاوه بر قرارداد رسمی، یک بخش را به عنوان لایه ایمنی فنی نیز ایجاد خواهد کرد. این بخش قرار است تا بر نحوه استفاده از مدلهای هوش مصنوعی نظارت داشته باشد. مهندسان شرکت نیز قرار است تا برای اطمینان حاصل شدن از رد نکردن خط قرمزها، در پروژههای مشترک با پنتاگون همکاری کنند.
با این حال، بسیاری از کارشناسان معتقدند که مسئله اصلی نه متن قرارداد، بلکه اعتماد است.اگر دولت و شرکت درباره مجاز بودن یک کاربرد اختلاف پیدا کنند، معمولاً دولت ابتدا اقدام میکند و بعداً اختلاف در دادگاه بررسی میشود.
از سوی دیگر، اقدام پنتاگون در کنار گذاشتن آنتروپیک نشان داد که در صورت اختلاف با شرکتهای فناوری، دولت از اعمال فشار شدید ترسی ندارد. به همین دلیل، برخی تحلیلگران معتقدند که پیام این ماجرا برای شرکتهای هوش مصنوعی کاملا روشن است: در همکاری با دولت، یا باید با شرایط آن کنار آمد، یا به کلی از این بازار کنار گذاشته می شوید.
اکنون به نظر میرسد که اوپن ای آی، انتخاب خود را کرده است.