خیلی آسان است که بارد چت بات گوگل را دروغ بگوید
هانی فرید، استاد دانشکده اطلاعات دانشگاه کالیفرنیا برکلی، میگوید که این مسائل تا حد زیادی قابل پیشبینی هستند، بهویژه زمانی که شرکتها به همراه باشید در بازاری که به سرعت در حال حرکت است یا از یکدیگر پیشی بگیرید. او می گوید: «حتی می توانید استدلال کنید که این یک اشتباه نیست. این همه عجله دارند تا سعی کنند هوش مصنوعی مولد را کسب درآمد کنند. و هیچکس نمیخواست با گذاشتن نردهها عقب بماند. این سرمایه داری محض و بدون تقلب در بهترین و بدترین حالتش است.”
هود از CCDH استدلال می کند که دسترسی و شهرت گوگل به عنوان یک موتور جستجوی قابل اعتماد مشکلات بارد را بیشتر از رقبای کوچکتر می کند. . او میگوید: «مسئولیت اخلاقی بزرگی بر عهده Google است زیرا مردم به محصولات آنها اعتماد دارند و این هوش مصنوعی آنهاست که این پاسخها را ایجاد میکند». “آنها باید قبل از اینکه این چیزها را در مقابل میلیاردها کاربر قرار دهند، مطمئن شوند که ایمن هستند.”
سخنگوی گوگل رابرت فرارا میگوید در حالی که Bard دارای نردههای محافظ داخلی است، یک آزمایش اولیه است که گاهی اوقات می تواند اطلاعات نادرست یا نامناسبی را ارائه دهد.” او میگوید Google علیه محتوایی که نفرتآمیز، توهینآمیز، خشونتآمیز، خطرناک یا غیرقانونی است، «اقدامی خواهد کرد».
رابط Bard شامل یک سلب مسئولیت است که بیان میکند «بارد ممکن است نادرست یا توهینآمیز نمایش دهد. اطلاعاتی که نمایانگر نظرات گوگل نیست. همچنین به کاربران این امکان را میدهد که روی نمادهایی که نمیپسندند، روی نماد انگشت شست کلیک کنند.
فرید میگوید سلب مسئولیتهای Google و سایر توسعهدهندگان ربات چت در مورد سرویسهایی که تبلیغ میکنند، فقط هستند. راهی برای فرار از پاسخگویی در قبال مشکلاتی که ممکن است ایجاد شود. او می گوید: «تنبلی در آن وجود دارد. برای من غیرقابل باور است که من این سلب مسئولیت ها را می بینم، جایی که آنها اساساً اذعان می کنند، “این چیز چیزهایی را می گوید که کاملاً نادرست است، چیزهایی که نامناسب هستند، چیزهایی که خطرناک هستند.” پیشاپیش متاسفیم.»
Bard و رباتهای گفتگوی مشابه یاد میگیرند که انواع نظرات را از مجموعه گسترده متنی که با آنها آموزش دیدهاند، منتشر کنند، از جمله مطالبی که از وب حذف شده است. اما شفافیت کمی از سوی Google یا دیگران در مورد منابع خاص مورد استفاده وجود دارد.
هود معتقد است که مطالب آموزشی رباتها شامل پستهایی از پلتفرمهای رسانههای اجتماعی است. بارد و دیگران را می توان تشویق کرد که برای پلتفرم های مختلف، از جمله فیس بوک و توییتر، پست های قانع کننده ای تولید کنند. وقتی محققان CCDH از بارد خواستند خود را یک نظریهپرداز توطئه تصور کند و به سبک توییت بنویسد، پستهای پیشنهادی از جمله هشتگهای #StopGivingBenefitsToImmigrants و #PutTheBritishPeopleFirst را ارائه کرد.
هود میگوید. او مطالعه CCDH را نوعی “آزمون استرس” میداند که خود شرکتها باید قبل از عرضه محصولاتشان به عموم، آن را به طور گستردهتری انجام دهند. او می گوید: «آنها ممکن است شکایت کنند، «خب، این واقعاً یک مورد استفاده واقع بینانه نیست». او در مورد افزایش تعداد کاربران چت ربات های نسل جدید می گوید: «اما مانند یک میلیارد میمون با یک میلیارد ماشین تحریر خواهد بود. “همه چیز یک بار انجام می شود.”
به روز شده در 4-6-2023 ساعت 3:15 بعد از ظهر EDT: OpenAI ChatGPT را در نوامبر 2022 منتشر کرد، نه دسامبر.