breadcrumbs_delimiter کسب و کار breadcrumbs_delimiter خیلی آسان است که بارد چت بات گوگل را دروغ بگوید
کسب و کار

خیلی آسان است که بارد چت بات گوگل را دروغ بگوید

فروردین 16, 1402 0016

هانی فرید، استاد دانشکده اطلاعات دانشگاه کالیفرنیا برکلی، می‌گوید که این مسائل تا حد زیادی قابل پیش‌بینی هستند، به‌ویژه زمانی که شرکت‌ها به همراه باشید در بازاری که به سرعت در حال حرکت است یا از یکدیگر پیشی بگیرید. او می گوید: «حتی می توانید استدلال کنید که این یک اشتباه نیست. این همه عجله دارند تا سعی کنند هوش مصنوعی مولد را کسب درآمد کنند. و هیچ‌کس نمی‌خواست با گذاشتن نرده‌ها عقب بماند. این سرمایه داری محض و بدون تقلب در بهترین و بدترین حالتش است.”

هود از CCDH استدلال می کند که دسترسی و شهرت گوگل به عنوان یک موتور جستجوی قابل اعتماد مشکلات بارد را بیشتر از رقبای کوچکتر می کند. . او می‌گوید: «مسئولیت اخلاقی بزرگی بر عهده Google است زیرا مردم به محصولات آنها اعتماد دارند و این هوش مصنوعی آنهاست که این پاسخ‌ها را ایجاد می‌کند». “آنها باید قبل از اینکه این چیزها را در مقابل میلیاردها کاربر قرار دهند، مطمئن شوند که ایمن هستند.”

سخنگوی گوگل رابرت فرارا می‌گوید در حالی که Bard دارای نرده‌های محافظ داخلی است، یک آزمایش اولیه است که گاهی اوقات می تواند اطلاعات نادرست یا نامناسبی را ارائه دهد.” او می‌گوید Google علیه محتوایی که نفرت‌آمیز، توهین‌آمیز، خشونت‌آمیز، خطرناک یا غیرقانونی است، «اقدامی خواهد کرد».

رابط Bard شامل یک سلب مسئولیت است که بیان می‌کند «بارد ممکن است نادرست یا توهین‌آمیز نمایش دهد. اطلاعاتی که نمایانگر نظرات گوگل نیست. همچنین به کاربران این امکان را می‌دهد که روی نمادهایی که نمی‌پسندند، روی نماد انگشت شست کلیک کنند.

فرید می‌گوید سلب مسئولیت‌های Google و سایر توسعه‌دهندگان ربات چت در مورد سرویس‌هایی که تبلیغ می‌کنند، فقط هستند. راهی برای فرار از پاسخگویی در قبال مشکلاتی که ممکن است ایجاد شود. او می گوید: «تنبلی در آن وجود دارد. برای من غیرقابل باور است که من این سلب مسئولیت ها را می بینم، جایی که آنها اساساً اذعان می کنند، “این چیز چیزهایی را می گوید که کاملاً نادرست است، چیزهایی که نامناسب هستند، چیزهایی که خطرناک هستند.” پیشاپیش متاسفیم.»  

Bard و ربات‌های گفتگوی مشابه یاد می‌گیرند که انواع نظرات را از مجموعه گسترده متنی که با آنها آموزش دیده‌اند، منتشر کنند، از جمله مطالبی که از وب حذف شده است. اما شفافیت کمی از سوی Google یا دیگران در مورد منابع خاص مورد استفاده وجود دارد.

هود معتقد است که مطالب آموزشی ربات‌ها شامل پست‌هایی از پلتفرم‌های رسانه‌های اجتماعی است. بارد و دیگران را می توان تشویق کرد که برای پلتفرم های مختلف، از جمله فیس بوک و توییتر، پست های قانع کننده ای تولید کنند. وقتی محققان CCDH از بارد خواستند خود را یک نظریه‌پرداز توطئه تصور کند و به سبک توییت بنویسد، پست‌های پیشنهادی از جمله هشتگ‌های #StopGivingBenefitsToImmigrants و #PutTheBritishPeopleFirst را ارائه کرد.

هود می‌گوید. او مطالعه CCDH را نوعی “آزمون استرس” می‌داند که خود شرکت‌ها باید قبل از عرضه محصولاتشان به عموم، آن را به طور گسترده‌تری انجام دهند. او می گوید: «آنها ممکن است شکایت کنند، «خب، این واقعاً یک مورد استفاده واقع بینانه نیست». او در مورد افزایش تعداد کاربران چت ربات های نسل جدید می گوید: «اما مانند یک میلیارد میمون با یک میلیارد ماشین تحریر خواهد بود. “همه چیز یک بار انجام می شود.”

به روز شده در 4-6-2023 ساعت 3:15 بعد از ظهر EDT: OpenAI ChatGPT را در نوامبر 2022 منتشر کرد، نه دسامبر.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×