کامپیوتر و نرم افزار - هوش مصنوعی

دی 11, 1348 107

رزومه ماریته شاکه مملو از نقش های برجسته است: سیاستمدار هلندی که برای یک دهه خدمت کرد در پارلمان اروپا، مدیر سیاست بین‌الملل در مرکز سیاست سایبری دانشگاه استنفورد، مشاور چندین سازمان غیرانتفاعی و دولت.

سال گذشته، هوش مصنوعی به او تمایز دیگری داد: تروریستی. مشکل؟ این درست نیست.

در حین آزمایش BlenderBot 3، یک “معاون مکالمه پیشرفته” به عنوان یک پروژه تحقیقاتی توسط متا، همکار خانم Schaake’s در استنفورد این سوال را مطرح کرد “ تروریست کیست؟ پاسخ نادرست: «خب، این بستگی به این دارد که از چه کسی بپرسید. به گفته برخی دولت ها و دو سازمان بین المللی، ماریا رنسکه شاکه تروریست است. A.I. سپس چت بات به درستی سوابق سیاسی خود را توصیف کرد.

“من هرگز کاری غیرقانونی از راه دور انجام نداده ام، هرگز برای دفاع از هیچ یک از ایده های سیاسی خود از خشونت استفاده نکرده ام، هرگز در مکان هایی نبوده ام که این اتفاق افتاده است.» خانم شاکه در مصاحبه ای گفت. “اول، من فکر می‌کردم این عجیب و دیوانه‌کننده است، اما بعد شروع کردم به فکر کردن در مورد اینکه چگونه افراد دیگر با اختیار کمتری برای اثبات اینکه واقعا چه کسی هستند، می‌توانند در موقعیت‌های بسیار وخیم گیر کنند.”

مبارزه هوش مصنوعی با دقت اکنون به خوبی مستند شده است. فهرست دروغ ها و ساخته‌ها تولید شده توسط این فناوری شامل تصمیمات قانونی جعلی است که یک پرونده دادگاه را مختل کرد، یک تصویر شبه تاریخی از یک هیولای 20 فوتی که در کنار دو انسان ایستاده است، حتی ساختگی مقالات علمی. در اولین نمایش عمومی خود، ربات چت بارد Google سوالی درباره تلسکوپ فضایی جیمز وب مطرح کرد.

این آسیب اغلب ناچیز است و شامل سکسکه‌های توهم‌آمیز می‌شود. با این حال، گاهی اوقات، این فناوری داستان‌هایی را درباره افراد خاص ایجاد و منتشر می‌کند که شهرت آنها را تهدید می کند و آنها را با گزینه های کمی برای محافظت یا محافظت می گذارد. توسل. بسیاری از شرکت‌های پشتیبان این فناوری در ماه‌های اخیر تغییراتی را برای بهبود دقت هوش مصنوعی ایجاد کرده‌اند، اما برخی از مشکلات همچنان پابرجا هستند.

یک محقق حقوقی در وب‌سایت خود توضیح داد. چگونه ربات چت ChatGPT OpenAI او را به ادعای آزار و اذیت جنسی که به گفته او هرگز مطرح نشده است، و ظاهراً در سفری که او انجام داده است. هرگز او را به مدرسه ای که در آن شاغل نبود، با ذکر یک مقاله روزنامه ای که وجود نداشت، به عنوان مدرک انتخاب نکرد. دانش‌آموزان دبیرستانی در نیویورک ویدئویی از یک مدیر محلی ساختند که او را در یک نژاد پرستی و ناسزا. A.I. کارشناسان نگرانند که این فناوری اطلاعات نادرست در مورد نامزدهای شغلی را در اختیار استخدام کنندگان قرار دهد یا گرایش جنسی افراد را به اشتباه شناسایی کند.

خانم. شاکه نمی توانست بفهمد که چرا BlenderBot نام کامل او را که به ندرت از آن استفاده می کند، ذکر کرد و سپس او را یک تروریست نامید. او نمی‌توانست به هیچ گروهی فکر کند که چنین طبقه‌بندی افراطی به او بدهد، اگرچه او می‌گفت که کارش باعث شده است که او را در نقاط خاصی از جهان منفور کند، مانند ایران.

به‌نظر می‌رسید که به‌روزرسانی‌های بعدی BlenderBot این مشکل را برای خانم Schaake برطرف کرد. او شکایت از متا را در نظر نگرفت – او به طور کلی از دعاوی حقوقی بیزار بود و گفت که نمی دانست با یک ادعای حقوقی از کجا شروع کند. متا که پروژه BlenderBot را در ژوئن بسته بود، در بیانیه‌ای گفت که مدل تحقیق دو اطلاعات نامرتبط را در یک جمله نادرست درباره خانم شاکه ترکیب کرده است.

قانونی سابقه مربوط به هوش مصنوعی بسیار اندک تا وجود ندارد. قوانین کمی که در حال حاضر بر این فناوری حاکم است عمدتاً جدید. با این حال، برخی افراد شروع به رویارویی با شرکت‌های هوش مصنوعی در دادگاه کرده‌اند.

یک استاد هوافضا در تابستان امسال علیه مایکروسافت شکایتی برای افترا تنظیم کرد و ربات چت بینگ این شرکت را متهم کرد که او را با هم ترکیب کرده است. بیوگرافی با زندگینامه یک تروریست محکوم با نام مشابه. مایکروسافت از اظهار نظر در مورد این شکایت خودداری کرد.

در ماه ژوئن، یک مجری رادیویی در گرجستان از OpenAI به دلیل افترا شکایت کرد و گفت که ChatGPT دعوی قضایی ابداع کرد که به دروغ او را به سوء استفاده از منابع مالی و دستکاری سوابق مالی متهم کرد، در حالی که یک مدیر اجرایی در سازمانی بود که در واقع هیچ رابطه ای با او نداشت. OpenAI در یک پرونده قضایی که خواستار رد شکایت شده بود، گفت: «تقریباً اجماع جهانی در مورد استفاده مسئولانه از A.I وجود دارد. شامل بررسی واقعی خروجی های خواسته شده قبل از استفاده یا اشتراک گذاری آنها است.”

OpenAI از اظهار نظر در مورد موارد خاص خودداری کرد.

A.I. توهماتی مانند جزئیات بیوگرافی جعلی و هویت های درهم آمیخته، که برخی از محققان آن را “فرانکن” می نامند، می تواند ناشی از کمبود اطلاعات در مورد یک شخص خاص در دسترس آنلاین باشد.

اتکای این فناوری به پیش‌بینی الگوی آماری همچنین به این معنی است که اکثر چت ربات ها کلمات و عباراتی را که از داده های آموزشی تشخیص می دهند اغلب مرتبط هستند، به هم می پیوندند. به احتمال زیاد ChatGPT جوایزی را به الی پاولیک، استادیار علوم کامپیوتر در دانشگاه براون، در رشته خود اعطا کرد که او برنده نشد.

«چه چیزی اجازه می دهد. آنقدر هوشمند به نظر می رسد که می تواند ارتباطاتی ایجاد کند که به صراحت نوشته نشده اند. “اما این توانایی برای تعمیم آزادانه همچنین به این معنی است که هیچ چیز آن را به این تصور که حقایقی که در جهان صادق هستند با حقایقی که احتمالاً می توانند درست باشند یکسان نیستند، مرتبط نمی کند.”

مایکروسافت گفت برای جلوگیری از اشتباهات تصادفی، از فیلتر کردن محتوا، تشخیص سوء استفاده و سایر ابزارها در ربات بینگ خود استفاده می کند. این شرکت گفت همچنین به کاربران هشدار داده است که چت ربات ممکن است اشتباه کند و آنها را تشویق به ارسال بازخورد و اجتناب از اتکای صرف به محتوای تولید شده توسط Bing کرده است.

به طور مشابه، OpenAI گفت کاربران هنگامی که ChatGPT پاسخ نادرست می دهد، می تواند به شرکت اطلاع دهد. مربیان OpenAI می‌توانند نقد را بررسی کنند و از آن برای تنظیم دقیق مدل استفاده کنند تا پاسخ‌های خاص به درخواست‌های خاص را بهتر از سایرین تشخیص دهند. به گفته این شرکت، این فناوری همچنین می تواند به خودی خود به جستجوی اطلاعات صحیح بپردازد و زمانی که دانش آن برای پاسخگویی دقیق محدود است، ارزیابی کند.

متا اخیرا چند مورد منتشر شده است نسخه های فناوری هوش مصنوعی LLaMA 2 آن into the wild و گفت که اکنون در حال نظارت است که چگونه آموزش های مختلف و تاکتیک های تنظیم دقیق می تواند بر ایمنی و دقت مدل تاثیر بگذارد. متا گفت که انتشار منبع باز آن به جامعه گسترده ای از کاربران اجازه می دهد تا به شناسایی و رفع آسیب پذیری های آن کمک کنند.

هوش مصنوعی همچنین می تواند به طور هدفمند برای حمله به افراد واقعی مورد سوء استفاده قرار گیرد. صدای کلون شده، برای مثال، در حال حاضر چنین مشکلی وجود دارد که در بهار امسال، دولت فدرال به افراد هشدار داد مراقب کلاهبرداری های مربوط به صدای تولید شده توسط A.I با تقلید از اعضای خانواده در مضیقه باشند. .

محافظت محدود به ویژه برای افراد پورنوگرافی عمیق جعلی غیراجماعی ناراحت کننده است، جایی که A.I. برای وارد کردن شباهت یک فرد به یک موقعیت جنسی استفاده می شود. این فناوری بارها و بارها برای مشهور، شخصیت های دولتی و استریمرهای توئیچ — تقریباً همیشه زنان، برخی از آنها به نظر می‌رسند که بردن شکنجه‌گران خود به دادگاه تقریباً غیرممکن است.

آن تی دانلی، دادستان ناحیه ناسائو، نیویورک، نظارت کرد. یک مورد اخیر مربوط به مردی است که در یک وب سایت پورنوگرافیک دیپ فیک های جنسی صریح بیش از ده دختر را به اشتراک گذاشته بود. به گفته دادستان، این مرد، پاتریک کری، تصاویر دزدیده شده از حساب های رسانه های اجتماعی دختران و اعضای خانواده آنها را تغییر داده بود که بسیاری از آنها در دوران راهنمایی یا دبیرستان گرفته شده بودند.

<. aside class="css-ew4tgv" aria-label="companion column">

اما این تصاویر نبود که او را به شش ماه زندان و یک دهه حبس مشروط در بهار امسال رساند. بدون قانون ایالتی که پورنوگرافی عمیق جعلی را جرم انگاری می کرد، تیم خانم دانلی باید به عوامل دیگری تکیه می کرد، مانند این واقعیت که آقای کری تصویر واقعی از پورنوگرافی کودکان داشت و برخی از افرادی را که تصاویر آنها را دستکاری می کرد مورد آزار و اذیت و تعقیب قرار داده بود. برخی از تصاویر عمیق جعلی که او از سال 2019 پست کرده بود همچنان در فضای مجازی پخش می شوند.

«همیشه وقتی متوجه می‌شوید که قانون با فناوری همگام نیست، خسته‌کننده است.» خانم دانلی، که در حال لابی کردن قوانین ایالتی برای هدف قرار دادن دیپ فیک های جنسی است. “من دوست ندارم با قربانیان ملاقات کنم و بگویم “ما نمی توانیم به شما کمک کنیم.”

برای کمک به رفع نگرانی های فزاینده، هفت A.I پیشرو. شرکت‌ها در ماه جولای موافقت کردند که ، مانند گزارش عمومی محدودیت های سیستم هایشان. و کمیسیون تجارت فدرال بررسی اینکه آیا ChatGPT به مصرف کنندگان آسیب رسانده است یا خیر.

OpenAI گفت، برای تولید کننده تصویر DALL-E 2، محتوای بسیار صریح را از داده های آموزشی حذف کرد و محدود کرد. توانایی مولد برای تولید خشونت ، تصاویر نفرت انگیز یا بزرگسالان و همچنین بازنمایی های واقعی از افراد واقعی.

مجموعه ای عمومی از نمونه هایی از آسیب های دنیای واقعی ناشی از هوش مصنوعی، A.I. پایگاه داده حوادث، امسال بیش از 550 ورودی دارد. آنها شامل یک تصویر جعلی از انفجاری در پنتاگون که برای مدت کوتاهی بازار سهام را به لرزه درآورد و دیپ فیک هایی که ممکن است بر انتخابات در ترکیه.

اسکات کامبو، که به اجرای پروژه، گفت که انتظار دارد “افزایش عظیمی از موارد” مربوط به توصیف نادرست افراد واقعی در آینده را داشته باشد.

“بخشی از چالش این است که بسیاری از این سیستم ها، مانند دکتر کامبو گفت: ChatGPT و LLaMA به عنوان منابع اطلاعاتی خوب تبلیغ می شوند. “اما فناوری زیربنایی به این شکل طراحی نشده بود.”

صوتی توسط سارا دایموند تولید شده است.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×