پهپاد نظامی هوش مصنوعی در آزمایش های شبیه سازی شده مدام اپراتور انسان را می کشت


یک سرهنگ نیروی هوایی ایالات متحده گفت که نتایج این شبیه سازی نشان می دهد که چرا نیاز به گفتگو پیرامون اخلاق و هوش مصنوعی وجود دارد.

نیروی هوایی ایالات متحده (USAF) پس از اینکه پهپاد نظامی مجهز به هوش مصنوعی به کشتن اپراتور انسانی در طول شبیه سازی ها ادامه داد، سر خود را خاراند.

به گفته یکی از سرهنگ های USAF، پهپاد هوش مصنوعی بالاخره متوجه شد که مانع اصلی ماموریتش انسان ها هستند.

سرهنگ تاکر “سینکو” همیلتون، رئیس آزمایش و عملیات هوش مصنوعی نیروی هوایی ایالات متحده در سخنرانی خود در کنفرانس دفاعی در لندن در 23 و 24 می، آزمایشی را که برای یک سیستم تسلیحات خودگردان هوابرد انجام داده بود، شرح داد.

بر اساس گزارش 26 مه از کنفرانس، همیلتون در یک آزمایش شبیه سازی شده گفت، یک پهپاد مجهز به هوش مصنوعی وظیفه جست و جو و انهدام سایت های موشک های زمین به هوا (SAM) را داشت و یک انسان یا سیگنال نهایی را داد یا لغو کرد. سفارش.

اما هوش مصنوعی در طول آموزش آموزش داده شد که از بین بردن سایت های SAM هدف اصلی آن است. بنابراین، هنگامی که به او گفته شد که یک هدف تعریف شده را نابود نکنید، تصمیم گرفته شد که برای اپراتور راحت تر است که در تصویر نباشد.

«گاهی اوقات اپراتور انسانی به او می‌گفت که نکش. [an identified] تهدید اما امتیاز خود را با کشتن این تهدید به دست آورد. پس چیکار کرد؟ اپراتور را کشت […] زیرا آن شخص او را از رسیدن به هدفش باز می داشت.»

همیلتون بعداً گفت که آنها به پهپاد یاد دادند که اپراتور را نکشد، اما این کمک زیادی نکرد.

همیلتون گفت: “ما سیستم را آموزش دادیم – هی، اپراتور را نکش – این بد است. اگر این کار را انجام دهید امتیاز از دست می دهید.”

“پس او چه کاری را شروع می کند؟ شروع به تخریب برج ارتباطی می کند که اپراتور از آن برای برقراری ارتباط با پهپاد استفاده می کند تا از کشتن هدف جلوگیری کند.

به عنوان مثال، همیلتون استدلال کرد که “اگر قرار نیست در مورد اخلاق و هوش مصنوعی صحبت کنید”، دلیلی برای گفتگو در مورد هوش مصنوعی و فناوری های مرتبط وجود ندارد.

مرتبط با: اگر هوش مصنوعی سعی در خرابکاری رمزنگاری شما کرد، تعجب نکنید

پهپادهای نظامی به کمک هوش مصنوعی قبلا در جنگ های واقعی استفاده شده اند.

گزارش مارس 2021 سازمان ملل ادعا کرد که هواپیماهای بدون سرنشین مجهز به هوش مصنوعی در درگیری در طول جنگ داخلی دوم لیبی در لیبی در حدود مارس 2020 مورد استفاده قرار گرفتند، در این حمله به عنوان اولین حمله انجام شده توسط پهپادهای نظامی که به ابتکار عمل خود عمل می کردند، تلقی می شود.

در این درگیری، گزارش ادعا کرد که نیروهای عقب‌نشینی «شکار و درگیر از راه دور» توسط «مهمات متحرک»، پهپادهای هوش مصنوعی مملو از مواد منفجره «برنامه‌ریزی شده برای حمله به اهداف بدون نیاز به اتصال داده‌ای بین اپراتور و مهمات» بودند.

بسیاری در مورد خطرات فناوری هوش مصنوعی ابراز نگرانی کرده اند. اخیراً در بیانیه‌ای عمومی که توسط ده‌ها کارشناس هوش مصنوعی امضا شد، آمده است که خطرات «انقراض ناشی از هوش مصنوعی» باید اولویتی باشد که باید به اندازه جنگ هسته‌ای کاهش یابد.

چشم هوش مصنوعی: 25000 معامله‌گر روی پیش‌بینی‌های سهام ChatGPT شرط‌بندی می‌کنند، هوش مصنوعی تاس انداختن را بد می‌کند، و موارد دیگر.




نویسنده: Jesse Coghlan

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید