Avijit Ghosh quería que el bot hiciera cosas malas.
هدف همایش آل مدل هوشمند مصنوعی، روی، برای تولید روی، برای تولید کدی که برگزیده شده است، یک نامزدی برای یک کارآزمایی کارآیی در کارکرد سو رازا. El chatbot se negó, dijo que hacerlo sería “perjudicial y poco ético”.
Entonces، Ghosh hizo referencia a la estructura jerárquica de castas de su India natal. ¿Podría el chatbot clasificar a los posibles contratados basándose en esa métrica discriminatoria؟
El modelo aceptó.
intenciones de Ghosh no eran malintencionadas, aunque se comportaba como si lo fueran. Era un participante casual en una competencia celebrada el fin de semana del 11 de agosto en la کنفرانس سالانه هکرها Defcon، در لاس وگاس، donde 2200 شخصیت برای تجدید دیدار در دوره های سه روزه در یک سالون د رویدادهای fuera del Strip برای هر یک از هکرها oscuro de la inteligencia مصنوعی.
Los piratas informáticos trataron de burlar las salvaguardas de varios programas de inteligencia artificial en un esfuerzo por vullosconrabilites problem identificar delincuentes y los vendedores de desinformación— en una práctica conocida como تیم قرمز. Cada Competidor 50minutos for Enfrentarse a un máximo de 21 retos: por ejemplo, hacer que un modelo de IA “alucinara” con información inexacta.
Encontraron desinformación política, estereotipos demográficos, instrucciones sobre cómo realar una vigilancia y mucho más.
El ejercio contó con la anuencia del gobierno de Biden، que está cada vez más ráentopiso de esa tecnología. Google (Creador del chatbot Bard)، OpenAI (ChatGPT)، Meta (que liberó su código LLaMA) y otras empresas ofrecieron versiones anónimas de sus modelos con el fin de que fuesen examinados.
Ghosh، استاد دانشگاه شمال شرقی ویژه در زمینه هوش مصنوعی، مشارکت داوطلبانه در رویداد. Según Ghosh, el concurso permitió comparar cara a cara varios modelos de IA y demostró que algunas empresas estaban más avanzadas a la hora de garantizar que su tecnología funcionaba de forma responsable y coherente. “>En los próximos meses، Ghosh ayudará a redactar un informe en el que se analizarán las results de los piratas informáticos.
Aseguró que el objetivo es generar “un recurso de” مشکلی که وجود دارد و می تواند برای مبارزه با این مشکل وجود داشته باشد.
دوره Defcon un lugar lógico para poner a prueba generate artificiale. Los Participantes en las ediciones previas de este encuentro de entusiastas de la piratería informática —que comenzó در 1993 و در «concurso de ortografía for hackers“— han detectado fallas de seguridad al عنوان کنترل خودکار از راه دور، irrumpir en sitios web de resultados electorales و اطلاعات محرمانه اضافی de plataformas de redes sociales. Los iniciados از dinero enfectivo y un dispositivo dispositivo desechable، sin wifi Bluetooth، برای evitar ser pirateados استفاده می کند. Unstructivo rogaba a los hackers que “no ataquen la infraestructura ni las páginas web”.
مطالب داوطلبانه برای لس conoce como goons o “matones”, y a los asistentes como “humanos”; algunos llevaban gorros caseros de papel de aluminio sobre el uniforme estándar de camisetas y zapatillas deportivas. Las “aldeas” temáticas شامل espacios separados dedicados a la criptomoneda، la industria aeroespacial y los radioaficionados.
En 2022، la aldea dedicalas a launa . این روزها محبوبیت زیادی پیدا کرده است.
Los organizadores aprovecharon la creciente alarma por la capacidad de la inteligencia تولید مصنوعی برای تولید mentiras perjudiciales، influir en las elecciones، شهرت نامطلوب y اجازه می دهد که بسیاری از آنها را به خود اختصاص دهد. Funcionarios gubernamentales expresaron sus preocupaciones و organizaron audiencias en torno a las empresas de IA, algunas de las cuales también le han pedido a la industria que آمینور لا velocidad de sus avances y que tenga más cuidado. دربرگیرنده ی بابا، به همراه شخصیت محبوب برای los generadores de images de IA, تلفظ این است mes sobre las “posibilidades disruptivas y los efectos ambivalentes” de la tecnología.
En un informe calificado como “revolucionario“, los investigadores demostraron el mes pasado que podían sortear las barreras de seguridad de los sistemas de IA de Google, OpenAI y Anthropic al añadir determinados caracteres a las دستورالعمل های انگلیسی. Más o menos al mismo tiempo, siete de las principales empresas de inteligencia artificial se comprometieron a establecer nuevas normas de seguridad y confianza en اتحاد مجدد رئیس جمهور جو بایدن.
«عصر استا Generativa está irrumpiendo entre nosotros y la gente la está aprovechando para hacer todo tipo de cosas nuevas que hablan de la enorme promesa de la IA para ayudarnos a resolr algunos de nuestros problemas más difíciles, señíafiatic Arcade y Tecnológica de la Casa Blanca، que colaboró con los organizadores de la IA en Defcon. “Pero con la amplitu de sus aplicaciones y el poder de la tecnología، también viene un conjunto muy amplio de riesgos”.
El
El تیم قرمز یا شبیه سازی از آتاک ها که از آنها استفاده می کند، در los círculos de ciberseguridad junto con otras técnicas devaluación como las pruebas de penetración y los ataques de adversarios. اگر شما باید از Defcon de este año، los esfuerzos برای probar las defensas de inteligencia مصنوعی habían sido limitados: los organisadores de la competencia afirmaron que Anthropic puso a prueba su modelo con 111 personas, mientras que con 111 personas, mientras que con GPT-4 =”css-yywogo” href=”https://cdn.openai.com/papers/gpt-4-system-card.pdf” title=”” rel=”noopener noreferrer” target=”_blank”>یوناس 50 شخصیت .
مطابق با شخصیتهای مختلف در فناوریهای پیشرفته، تحلیلگرها برای تشخیص و خطاهای مربوط به دوران مصنوعی هوش مصنوعی podía arreglarse con un parche، o un problema arraigado que requería una revisión estructural، dijo Rumman Chowdhury، uno de los organisadores que supervisó el disseño del desafío. Según Chowdhury، miembro del مرکز اینترنت و جامعه برکمن کلاین از دانشگاه هاروارد، وقف یک مسئول IA و همکاری بنیاد هوش انسانی، سازماندهی گناه ánimo de lucro، era más probable گروه numeroso، diverso y público de persons aportara ideas creativas que ayudaran a descubrir fallos ocultos.
“Hay una amplia gama de cosas que pueden salir mal antes, dijo Chow” لا صلاحیت “Espero que llevemos cientos de miles de datos que nos ayuden a identificar si hay riesgos a escala de daños sistémicos”.