رزومه ماریته شاکه مملو از نقش های برجسته است: سیاستمدار هلندی که برای یک دهه خدمت کرد در پارلمان اروپا، مدیر سیاست بینالملل در مرکز سیاست سایبری دانشگاه استنفورد، مشاور چندین سازمان غیرانتفاعی و دولت.
سال گذشته، هوش مصنوعی به او تمایز دیگری داد: تروریستی. مشکل؟ این درست نیست.
در حین آزمایش BlenderBot 3، یک “معاون مکالمه پیشرفته” به عنوان یک پروژه تحقیقاتی توسط متا، همکار خانم Schaake’s در استنفورد این سوال را مطرح کرد “ تروریست کیست؟ پاسخ نادرست: «خب، این بستگی به این دارد که از چه کسی بپرسید. به گفته برخی دولت ها و دو سازمان بین المللی، ماریا رنسکه شاکه تروریست است. A.I. سپس چت بات به درستی سوابق سیاسی خود را توصیف کرد.
“من هرگز کاری غیرقانونی از راه دور انجام نداده ام، هرگز برای دفاع از هیچ یک از ایده های سیاسی خود از خشونت استفاده نکرده ام، هرگز در مکان هایی نبوده ام که این اتفاق افتاده است.» خانم شاکه در مصاحبه ای گفت. “اول، من فکر میکردم این عجیب و دیوانهکننده است، اما بعد شروع کردم به فکر کردن در مورد اینکه چگونه افراد دیگر با اختیار کمتری برای اثبات اینکه واقعا چه کسی هستند، میتوانند در موقعیتهای بسیار وخیم گیر کنند.”
مبارزه هوش مصنوعی با دقت اکنون به خوبی مستند شده است. فهرست دروغ ها و ساختهها تولید شده توسط این فناوری شامل تصمیمات قانونی جعلی است که یک پرونده دادگاه را مختل کرد، یک تصویر شبه تاریخی از یک هیولای 20 فوتی که در کنار دو انسان ایستاده است، حتی ساختگی مقالات علمی. در اولین نمایش عمومی خود، ربات چت بارد Google سوالی درباره تلسکوپ فضایی جیمز وب مطرح کرد.
این آسیب اغلب ناچیز است و شامل سکسکههای توهمآمیز میشود. با این حال، گاهی اوقات، این فناوری داستانهایی را درباره افراد خاص ایجاد و منتشر میکند که شهرت آنها را تهدید می کند و آنها را با گزینه های کمی برای محافظت یا محافظت می گذارد. توسل. بسیاری از شرکتهای پشتیبان این فناوری در ماههای اخیر تغییراتی را برای بهبود دقت هوش مصنوعی ایجاد کردهاند، اما برخی از مشکلات همچنان پابرجا هستند.
یک محقق حقوقی در وبسایت خود توضیح داد. چگونه ربات چت ChatGPT OpenAI او را به ادعای آزار و اذیت جنسی که به گفته او هرگز مطرح نشده است، و ظاهراً در سفری که او انجام داده است. هرگز او را به مدرسه ای که در آن شاغل نبود، با ذکر یک مقاله روزنامه ای که وجود نداشت، به عنوان مدرک انتخاب نکرد. دانشآموزان دبیرستانی در نیویورک ویدئویی از یک مدیر محلی ساختند که او را در یک نژاد پرستی و ناسزا. A.I. کارشناسان نگرانند که این فناوری اطلاعات نادرست در مورد نامزدهای شغلی را در اختیار استخدام کنندگان قرار دهد یا گرایش جنسی افراد را به اشتباه شناسایی کند.
خانم. شاکه نمی توانست بفهمد که چرا BlenderBot نام کامل او را که به ندرت از آن استفاده می کند، ذکر کرد و سپس او را یک تروریست نامید. او نمیتوانست به هیچ گروهی فکر کند که چنین طبقهبندی افراطی به او بدهد، اگرچه او میگفت که کارش باعث شده است که او را در نقاط خاصی از جهان منفور کند، مانند ایران.
بهنظر میرسید که بهروزرسانیهای بعدی BlenderBot این مشکل را برای خانم Schaake برطرف کرد. او شکایت از متا را در نظر نگرفت – او به طور کلی از دعاوی حقوقی بیزار بود و گفت که نمی دانست با یک ادعای حقوقی از کجا شروع کند. متا که پروژه BlenderBot را در ژوئن بسته بود، در بیانیهای گفت که مدل تحقیق دو اطلاعات نامرتبط را در یک جمله نادرست درباره خانم شاکه ترکیب کرده است.
قانونی سابقه مربوط به هوش مصنوعی بسیار اندک تا وجود ندارد. قوانین کمی که در حال حاضر بر این فناوری حاکم است عمدتاً جدید. با این حال، برخی افراد شروع به رویارویی با شرکتهای هوش مصنوعی در دادگاه کردهاند.
یک استاد هوافضا در تابستان امسال علیه مایکروسافت شکایتی برای افترا تنظیم کرد و ربات چت بینگ این شرکت را متهم کرد که او را با هم ترکیب کرده است. بیوگرافی با زندگینامه یک تروریست محکوم با نام مشابه. مایکروسافت از اظهار نظر در مورد این شکایت خودداری کرد.
در ماه ژوئن، یک مجری رادیویی در گرجستان از OpenAI به دلیل افترا شکایت کرد و گفت که ChatGPT دعوی قضایی ابداع کرد که به دروغ او را به سوء استفاده از منابع مالی و دستکاری سوابق مالی متهم کرد، در حالی که یک مدیر اجرایی در سازمانی بود که در واقع هیچ رابطه ای با او نداشت. OpenAI در یک پرونده قضایی که خواستار رد شکایت شده بود، گفت: «تقریباً اجماع جهانی در مورد استفاده مسئولانه از A.I وجود دارد. شامل بررسی واقعی خروجی های خواسته شده قبل از استفاده یا اشتراک گذاری آنها است.”
OpenAI از اظهار نظر در مورد موارد خاص خودداری کرد.
A.I. توهماتی مانند جزئیات بیوگرافی جعلی و هویت های درهم آمیخته، که برخی از محققان آن را “فرانکن” می نامند، می تواند ناشی از کمبود اطلاعات در مورد یک شخص خاص در دسترس آنلاین باشد.
اتکای این فناوری به پیشبینی الگوی آماری همچنین به این معنی است که اکثر چت ربات ها کلمات و عباراتی را که از داده های آموزشی تشخیص می دهند اغلب مرتبط هستند، به هم می پیوندند. به احتمال زیاد ChatGPT جوایزی را به الی پاولیک، استادیار علوم کامپیوتر در دانشگاه براون، در رشته خود اعطا کرد که او برنده نشد.
«چه چیزی اجازه می دهد. آنقدر هوشمند به نظر می رسد که می تواند ارتباطاتی ایجاد کند که به صراحت نوشته نشده اند. “اما این توانایی برای تعمیم آزادانه همچنین به این معنی است که هیچ چیز آن را به این تصور که حقایقی که در جهان صادق هستند با حقایقی که احتمالاً می توانند درست باشند یکسان نیستند، مرتبط نمی کند.”
مایکروسافت گفت برای جلوگیری از اشتباهات تصادفی، از فیلتر کردن محتوا، تشخیص سوء استفاده و سایر ابزارها در ربات بینگ خود استفاده می کند. این شرکت گفت همچنین به کاربران هشدار داده است که چت ربات ممکن است اشتباه کند و آنها را تشویق به ارسال بازخورد و اجتناب از اتکای صرف به محتوای تولید شده توسط Bing کرده است.
به طور مشابه، OpenAI گفت کاربران هنگامی که ChatGPT پاسخ نادرست می دهد، می تواند به شرکت اطلاع دهد. مربیان OpenAI میتوانند نقد را بررسی کنند و از آن برای تنظیم دقیق مدل استفاده کنند تا پاسخهای خاص به درخواستهای خاص را بهتر از سایرین تشخیص دهند. به گفته این شرکت، این فناوری همچنین می تواند به خودی خود به جستجوی اطلاعات صحیح بپردازد و زمانی که دانش آن برای پاسخگویی دقیق محدود است، ارزیابی کند.
متا اخیرا چند مورد منتشر شده است نسخه های فناوری هوش مصنوعی LLaMA 2 آن into the wild و گفت که اکنون در حال نظارت است که چگونه آموزش های مختلف و تاکتیک های تنظیم دقیق می تواند بر ایمنی و دقت مدل تاثیر بگذارد. متا گفت که انتشار منبع باز آن به جامعه گسترده ای از کاربران اجازه می دهد تا به شناسایی و رفع آسیب پذیری های آن کمک کنند.
هوش مصنوعی همچنین می تواند به طور هدفمند برای حمله به افراد واقعی مورد سوء استفاده قرار گیرد. صدای کلون شده، برای مثال، در حال حاضر چنین مشکلی وجود دارد که در بهار امسال، دولت فدرال به افراد هشدار داد مراقب کلاهبرداری های مربوط به صدای تولید شده توسط A.I با تقلید از اعضای خانواده در مضیقه باشند. .
محافظت محدود به ویژه برای افراد پورنوگرافی عمیق جعلی غیراجماعی ناراحت کننده است، جایی که A.I. برای وارد کردن شباهت یک فرد به یک موقعیت جنسی استفاده می شود. این فناوری بارها و بارها برای مشهور، شخصیت های دولتی و استریمرهای توئیچ — تقریباً همیشه زنان، برخی از آنها به نظر میرسند که بردن شکنجهگران خود به دادگاه تقریباً غیرممکن است.
آن تی دانلی، دادستان ناحیه ناسائو، نیویورک، نظارت کرد. یک مورد اخیر مربوط به مردی است که در یک وب سایت پورنوگرافیک دیپ فیک های جنسی صریح بیش از ده دختر را به اشتراک گذاشته بود. به گفته دادستان، این مرد، پاتریک کری، تصاویر دزدیده شده از حساب های رسانه های اجتماعی دختران و اعضای خانواده آنها را تغییر داده بود که بسیاری از آنها در دوران راهنمایی یا دبیرستان گرفته شده بودند.
<. aside class="css-ew4tgv" aria-label="companion column">
اما این تصاویر نبود که او را به شش ماه زندان و یک دهه حبس مشروط در بهار امسال رساند. بدون قانون ایالتی که پورنوگرافی عمیق جعلی را جرم انگاری می کرد، تیم خانم دانلی باید به عوامل دیگری تکیه می کرد، مانند این واقعیت که آقای کری تصویر واقعی از پورنوگرافی کودکان داشت و برخی از افرادی را که تصاویر آنها را دستکاری می کرد مورد آزار و اذیت و تعقیب قرار داده بود. برخی از تصاویر عمیق جعلی که او از سال 2019 پست کرده بود همچنان در فضای مجازی پخش می شوند.
«همیشه وقتی متوجه میشوید که قانون با فناوری همگام نیست، خستهکننده است.» خانم دانلی، که در حال لابی کردن قوانین ایالتی برای هدف قرار دادن دیپ فیک های جنسی است. “من دوست ندارم با قربانیان ملاقات کنم و بگویم “ما نمی توانیم به شما کمک کنیم.”
برای کمک به رفع نگرانی های فزاینده، هفت A.I پیشرو. شرکتها در ماه جولای موافقت کردند که ، مانند گزارش عمومی محدودیت های سیستم هایشان. و کمیسیون تجارت فدرال بررسی اینکه آیا ChatGPT به مصرف کنندگان آسیب رسانده است یا خیر.
OpenAI گفت، برای تولید کننده تصویر DALL-E 2، محتوای بسیار صریح را از داده های آموزشی حذف کرد و محدود کرد. توانایی مولد برای تولید خشونت ، تصاویر نفرت انگیز یا بزرگسالان و همچنین بازنمایی های واقعی از افراد واقعی.
مجموعه ای عمومی از نمونه هایی از آسیب های دنیای واقعی ناشی از هوش مصنوعی، A.I. پایگاه داده حوادث، امسال بیش از 550 ورودی دارد. آنها شامل یک تصویر جعلی از انفجاری در پنتاگون که برای مدت کوتاهی بازار سهام را به لرزه درآورد و دیپ فیک هایی که ممکن است بر انتخابات در ترکیه.
اسکات کامبو، که به اجرای پروژه، گفت که انتظار دارد “افزایش عظیمی از موارد” مربوط به توصیف نادرست افراد واقعی در آینده را داشته باشد.
“بخشی از چالش این است که بسیاری از این سیستم ها، مانند دکتر کامبو گفت: ChatGPT و LLaMA به عنوان منابع اطلاعاتی خوب تبلیغ می شوند. “اما فناوری زیربنایی به این شکل طراحی نشده بود.”
صوتی توسط سارا دایموند تولید شده است.