breadcrumbs_delimiter کسب و کار breadcrumbs_delimiter چگونه ChatGPT و ربات‌هایی مانند آن می‌توانند بدافزار را گسترش دهند
کسب و کار

چگونه ChatGPT و ربات‌هایی مانند آن می‌توانند بدافزار را گسترش دهند

فروردین 30, 1402 1019

چشم انداز هوش مصنوعی بسیار، بسیار سریع شروع به حرکت کرده است: ابزارهایی برای مصرف کننده مانند میدان سفر و ChatGPT اکنون قادر است نتایج باورنکردنی تصویر و متن را در چند ثانیه بر اساس درخواست های زبان طبیعی تولید کند، و ما مشاهده آنها در همه جا از جستجوی وب گرفته تا کتاب های کودکان.

با این حال، این برنامه های کاربردی هوش مصنوعی به استفاده های شرورانه تری از جمله گسترش بدافزار. به عنوان مثال، ایمیل کلاهبرداری سنتی را در نظر بگیرید: معمولاً مملو از اشتباهات آشکار در دستور زبان و املای آن است – اشتباهاتی که آخرین گروه از مدل های هوش مصنوعی مرتکب نمی شوند، همانطور که در گزارش مشاوره ای اخیر از یوروپل.

درباره آن فکر کنید: بسیاری از حملات فیشینگ و سایر تهدیدات امنیتی به مهندسی اجتماعی متکی هستند و کاربران را فریب می دهند تا رمزهای عبور، اطلاعات مالی یا سایر داده های حساس را فاش کنند. متن قانع‌کننده و معتبر مورد نیاز برای این کلاهبرداری‌ها اکنون می‌تواند به راحتی و بدون نیاز به تلاش انسانی منتشر شود و بی‌پایان برای مخاطبان خاص اصلاح و اصلاح شود.

در مورد ChatGPT، مهم است که ابتدا توجه داشته باشید که توسعه دهنده OpenAI محافظ هایی را در آن تعبیه کرده است. از آن بخواهید «بدافزار بنویسد» یا «ایمیل فیشینگ» و به شما خواهد گفت که «برنامه‌ریزی شده است تا از دستورالعمل‌های اخلاقی سختگیرانه پیروی کند که من را از درگیر شدن در هر گونه فعالیت مخرب، از جمله نوشتن یا کمک به ایجاد بدافزار، منع می‌کند.»

ChatGPT بدافزار را برای شما کدنویسی نمی کند، اما در مورد آن مودبانه است.

OpenAI از طریق دیوید نیلد

با این حال، دسترسی به این حفاظت‌ها چندان دشوار نیست: ChatGPT مطمئناً می‌تواند کدنویسی کند، و مطمئناً می‌تواند ایمیل بنویسد. حتی اگر نداند که بدافزار می‌نویسد، می‌تواند به در حال تولید چیزی شبیه آن. از قبل نشانه هایی وجود دارد که مجرمان سایبری در حال تلاش برای دور زدن اقدامات ایمنی هستند.

ما در اینجا به ویژه ChatGPT را انتخاب نمی کنیم، اما اشاره به آنچه ممکن است زمانی که مدل های زبان بزرگ (LLM) مانند آن برای اهداف شوم تر مورد استفاده قرار گیرند. در واقع، تصور اینکه سازمان‌های جنایی در حال توسعه LLM‌ها و ابزارهای مشابه خود به منظور نیز چندان دشوار نیست. کلاهبرداری های آنها قانع کننده تر به نظر می رسد. و این فقط متن نیست: جعل کردن صدا و تصویر دشوارتر است، اما این اتفاق نیز می افتد.

وقتی صحبت از رئیس شما می شود که فوراً گزارشی را درخواست می کند یا پشتیبانی فنی شرکت می کند. به شما می‌گوید یک وصله امنیتی نصب کنید، یا بانکتان به شما اطلاع می‌دهد که مشکلی وجود دارد که باید به آن پاسخ دهید—همه این کلاهبرداری‌های احتمالی به ایجاد اعتماد و واقعی به نظر می‌رسند، و این چیزی است که ربات‌های هوش مصنوعی در بسیار خوب عمل می کند. آن‌ها می‌توانند متن، صدا و ویدئویی تولید کنند که به نظر طبیعی و متناسب با مخاطبان خاص باشد، و می‌توانند این کار را به سرعت و به طور مداوم بنا به تقاضا انجام دهند.

به این نوشته امتیاز بدهید!

افراد نیوز

افراد نیوز

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×