مرگ با فراداده؛ چگونه هوش مصنوعی می‌تواند تصمیم به قتل انسان بگیرد؟

AI systems of the future will be more attuned to the nuances of human behaviour

AI systems of the future will be more attuned to the nuances of human behaviour Source: Shutterstock

اپلیکیشین رادیو اس بی اس را دریافت کنید

راه های دیگر شنیدن

ظهور هوش‌ مصنوعی‌هایی که توانایی تقلید انسان در مهارت‌هایی مثل حل مسئله یا تصمیم‌گیری را دارند، روزبه‌روز به شکل بیشتری بر زندگی‌های ما تاثیر می‌گذارد. اما در عین حال این اتفاق مفهوم جنگ را متحول کرده؛ جایی که در آن شاید هوش مصنوعی با یک تصمیم حیاتی روبرو شود؛ تصمیمی درباره «مرگ یا زندگی» یک انسان.


شیوه جنگ کردن ما در حال تغییر است؛ کارشناسان می‌گویند در دنیا یک رقابت نظامی جدید این بار برای مسلح کردن هوش مصنوعی در حال رقم خوردن است.

همین حالا هم هوش مصنوعی در امور نظامی مختلفی مثل کنترل پهپادها نفش دارد، اما بعضی از متخصصان معتقد هستند که آرام آرام کار به جایی می‌رسد که کامپیوترها تصمیم نهایی را بگیرند؛ این که چه کسی را مورد هدف قرار بدهند و چه کسی را بکشند.

پروفسور توبی والش، از موسسه هوش مصنوعی در دانشگاه نیوساوت‌ولز می‌گوید: «با دیدن پروازهای نیمه خودمختار آشنا هستیم، در این موارد همچنان انگشت انسان روی ماشه است، اما به طور فزاینده‌ای این پهبادها توسط کامپیوترها پرواز می‌کنند و کامپیوترهای بیشتری آن تصمیم نهایی را می‌گیرند.


به گفته سازمان ملل، سیستم‌های تسلیحاتی خودمختار «اهداف انسانی را بدون نظارت انسان، پیدا، انتخاب و درگیر می‌کنند»، این سیستم‌ها نام دیگری هم دارند؛ «ربات‌های قاتل».

این ربات‌ها می‌توانند برای شناسایی و حمله به داده‌هایی مثل وزن، سن و نژاد تکیه کنند.

دکتر اولگا بویچاک، جامعه شناس و مدرس فرهنگ های دیجیتال در دانشگاه سیدنی می‌گوید که نام دیگر این، مرگ با فراداده (metadata) است.

یک گزارش سازمان ملل نشان می‌دهد که که اولین حمله پهبادهای خودمختار در سال ۲۰۲۰ اتفاق افتاد؛ جایی که پهپادهای ساخت ترکیه در بحبوحه درگیری نظامی در لیبی مستقر شدند. از آن زمان، این نوع تسلیحات در سایر درگیری‌ها از جمله جنگ اوکراین نقش داشته‌اند.
طبق گزارش موسسه روابط بین‌الملل استرالیا، روسیه، چین، اسرائیل، هند، ایالات متحده، بریتانیا و استرالیا از کشورهای پیشرو در توسعه هوش مصنوعی در امور نظامی هستند.

واگذاری تصمیم «مرگ یا زندگی» به ماشین‌ها یک معضل اخلاقی ایجاد می‌کند به همین دلیل هم کارشناسان خواستار مقررات برای سلاح‌های خودمختار کشنده تحت کنوانسیون سازمان ملل ده‌اند.

آن‌ها می‌خواهند مثل سلاح‌های شیمیایی و بیولوژیک این سلاح‌ها هم تحت کنوانسیون ژنو تعطیل شوند.

دانیلا گاوشون مدیر دیده‌بان حقوق بشر در گفت: « سلاح‌هایی که بدون کنترل معنادار انسانی عمل می‌کنند، هیچ ویژگی انسانی قضاوت و هم‌دردی را ندارند، ویژگی‌هایی که بخش‌های جدایی‌ناپذیر تجزیه و تحلیل هدف قانونی است.»

متخصصانی مثل پروفسور والش، نگران هستند که واقعیت تسلیحات هوش مصنوعی به طور کامل درک نشده باشد؛ آن‌ها اصرار دارند تا اقدامی انجام بشود، قبل از اینکه دیگر دیر شده باشد.


همرسانی کنید