چگونه جلوی نژادپرست شدن روبات ها را بگیریم
در سال 2017، هالیدی به گزارش RAND هشدار می دهد که حل سوگیری در یادگیری ماشینی مستلزم استخدام تیم های متنوع است و نمی تواند تنها از طریق ابزار فنی رفع شود. در سال 2020، او به تأسیس سازمان غیرانتفاعی مشکی در رباتیک، که برای حضور سیاهپوستان و سایر اقلیتها را در این صنعت گسترش دهید. او دو اصل را از یک منشور حقوق الگوریتمی که او در آن زمان پیشنهاد کرد می تواند خطر استقرار ربات های مغرضانه را کاهش دهد. یکی از آنها نیاز به افشاگریها است که به افراد اطلاع میدهد زمانی که یک الگوریتم قرار است یک تصمیم با ریسک بالا که بر آنها تأثیر می گذارد. دیگری به مردم این حق را می دهد که چنین تصمیماتی را بررسی یا اعتراض کنند. دفتر سیاست علم و فناوری کاخ سفید در حال حاضر در حال تدوین منشور حقوق هوش مصنوعی است.
برخی از روباتیکهای سیاهپوست میگویند که نگرانیهای آنها در مورد تبدیل نژادپرستی به ماشینهای خودکار ناشی از ترکیبی از تخصص مهندسی و تجربه شخصی است.
ترنس ساترن در دیترویت بزرگ شد و اکنون در دالاس زندگی می کند و از ربات های سازنده تریلر ATW نگهداری می کند. او به یاد می آورد که با موانعی برای ورود به صنعت رباتیک یا حتی آگاهی از آن مواجه بود. ساترن میگوید: «هر دو والدین من برای جنرال موتورز کار میکردند، و من نمیتوانستم خارج از جتسونها و جنگ ستارگان به شما بگویم که یک ربات چه کاری میتواند انجام دهد. وقتی او از کالج فارغ التحصیل شد، در شرکتهای روباتیک کسی را ندید که شبیه او باشد، و معتقد است که از آن زمان تغییر چندانی نکرده است – این یکی از دلایلی است که او به جوانان علاقهمند به دنبال کردن مشاغل در این زمینه راهنمایی میکند.
Southern معتقد است که برای جلوگیری کامل از استقرار رباتهای نژادپرست خیلی دیر شده است، اما فکر میکند که مقیاس میتواند با مونتاژ مجموعه دادههای با کیفیت بالا و همچنین مستقل، شخص ثالث ارزیابی ادعاهای جعلی مطرح شده توسط شرکت های سازنده سیستم های هوش مصنوعی.
آندرا کی، مدیر گروه صنعتی Silicon Valley Robotics و رئیس زنان در رباتیک، که بیش از 1، 700 عضو در سراسر جهان نیز یافته های آزمایش ربات نژادپرستانه را غیرقابل تعجب می دانند. او گفت که ترکیبی از سیستمهای لازم برای یک ربات برای پیمایش در جهان، «یک سالاد بزرگ از همه چیزهایی است که ممکن است اشتباه کنند.»
کی قبلاً در حال برنامهریزی برای پیشبرد استانداردها بود. – تنظیم نهادهایی مانند مؤسسه مهندسین برق و الکترونیک (IEEE) برای اتخاذ قوانینی مبنی بر اینکه روبات ها جنسیت ظاهری نداشته باشند و از نظر قومیت بی طرف باشند. کی میگوید با افزایش نرخ پذیرش رباتها در نتیجه همهگیری کووید-19، او همچنین از ایده دولت فدرال برای حفظ رجیستر ربات هستیم.
در اواخر سال 2021، تا حدی در پاسخ به نگرانی های مطرح شده توسط جامعه هوش مصنوعی و روباتیک، IEEE تأیید استاندارد شفافیت برای سیستم های مستقل که می تواند به شرکت ها کمک کند تا اطمینان حاصل کنند که روبات ها با همه مردم منصفانه رفتار می کنند. به سیستم های مستقل نیاز دارد که صادقانه دلایل اعمال یا تصمیمات خود را به کاربران منتقل کنند. با این حال، گروههای حرفهای تنظیم استاندارد محدودیتهای خود را دارند: در سال 2020، یک کمیته سیاست فناوری در انجمن ماشینهای محاسباتی از کسبوکارها و دولتها خواست استفاده از تشخیص چهره را متوقف کنند، فراخوانی که تا حد زیادی در گوشها ناشنوا بود.
وقتی کارلوتا بری، کارگردان ملی سیاهپوست در رباتیک، شنید که یک ربات شطرنج انگشت کودکی را شکست، اولین فکرش این بود: «چه کسی فکر میکرد که این ربات برای اولین بار آماده است. نمی توانم تفاوت بین مهره شطرنج و کودک را تشخیص دهم. انگشت است؟» او مدیر یک برنامه رباتیک در مؤسسه فناوری رز-هولمن در ایندیانا و ویراستار کتاب درسی آتی در مورد کاهش تعصب در یادگیری ماشین است. او معتقد است که بخشی از راه حل برای جلوگیری از به کارگیری ماشین های جنسیتی و نژادپرستانه، مجموعه ای از روش های ارزیابی رایج برای سیستم های جدید قبل از در دسترس قرار گرفتن در دسترس عموم است.
در عصر کنونی. از هوش مصنوعی، در حالی که مهندسان و محققان برای سرعت بخشیدن به کارهای جدید با هم رقابت می کنند، بری تردید دارد که سازندگان ربات می توانند برای خودتنظیمی یا اضافه کردن ویژگی های ایمنی به آنها اعتماد کنند. او معتقد است که باید تاکید بیشتری بر آزمایش کاربر شود.
“من فکر نمیکنم محققان در آزمایشگاه همیشه بتوانند جنگل را برای درختان ببینند و تشخیص نخواهند داد که چه زمانی وجود دارد. بری می گوید یک مشکل. آیا قدرت محاسباتی در دسترس طراحان سیستمهای هوش مصنوعی از توانایی آنها برای در نظر گرفتن آنچه که باید یا نباید با آن بسازند پیشی میگیرد؟ بری میگوید: «این یک سؤال سخت است، اما سؤالی است که باید به آن پاسخ داده شود، زیرا هزینه برای انجام ندادن آن بسیار بالاست.»
***
منبع : https://www.wired.com