Startupi
OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial
A OpenAI estĂĄ expandindo seus processos internos de segurança para afastar a ameaça de IA prejudicial, a empresa acha que a tecnologia pode abrir portas para indivĂduos mal-intencionados desenvolverem armas quĂmicas e biolĂłgicas. Um novo time de segurança ficarĂĄ acima das equipes tĂ©cnicas e farĂĄ recomendaçÔes Ă liderança e o conselho poderĂĄ vetar avanços da IA se achar necessĂĄrio.
Acesse aqui e responda ao Censo Investidores 2023! Queremos ouvir vocĂȘ!
A equipe serĂĄ liderada pelo professor de IA do MIT Aleksander Madry e contratarĂĄ pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de polĂticas para monitorar e testar constantemente a tecnologia. E caso encontrem algo suspeito, avisarĂŁo a empresa.
“Temos vĂĄrias equipes de segurança e polĂtica trabalhando juntas para mitigar os riscos da IA. Nossa equipe de Sistemas de Segurança se concentra em mitigar o uso indevido de modelos e produtos atuais, como o ChatGPT. O superalinhamento constrĂłi as bases para a segurança de modelos superinteligentes que (esperamos) ter em um futuro mais distante. A equipe de Preparação mapeia os riscos emergentes dos modelos de fronteira e se conecta aos Sistemas de Segurança, Superalinhamento e nossas outras equipes de segurança e polĂtica em toda a OpenAI”, afirma a empresa.
A OpenAI diz que irĂĄ avaliar todos os seus modelos de fronteira, inclusive a cada aumento efetivo de computação de 2x durante as execuçÔes de treinamento. IrĂĄ levar os modelos aos seus limites. Para ajudar a avaliar os riscos dos modelos de fronteira e medir a eficĂĄcia de quaisquer mitigaçÔes propostas. O objetivo Ă© sondar as bordas especĂficas do que nĂŁo Ă© seguro para mitigar efetivamente os riscos revelados. Para rastrear os nĂveis de segurança dos modelos, a empresa produz “scorecards” de risco e relatĂłrios detalhados.
Exemplo de uma avaliação dos riscos de um modelo através da rubrica do OpenAI. Créditos da Imagem: OpenAI
“Definimos limites para nĂveis de risco ao longo das seguintes categorias iniciais rastreadas – segurança cibernĂ©tica, CBRN (ameaças quĂmicas, biolĂłgicas, radiolĂłgicas, nucleares), persuasĂŁo e autonomia do modelo. Especificamos quatro nĂveis de risco de segurança, e apenas modelos com uma pontuação pĂłs-mitigação de ‘mĂ©dia’ ou abaixo podem ser implantados; apenas modelos com uma pontuação pĂłs-mitigação de ‘alta’ ou abaixo podem ser desenvolvidos ainda mais. TambĂ©m implementaremos medidas de segurança adicionais adaptadas a modelos com nĂveis de risco altos ou crĂticos (prĂ©-mitigação)”, completa a empresa.
Acesse aqui e saiba como vocĂȘ e o Startupi podem se tornar parceiros para impulsionar seus esforços de comunicação. Startupi – Jornalismo para quem lidera a inovação.
O post OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial aparece primeiro em Startupi e foi escrito por Bruna Galati
from Startupi https://ift.tt/G2HDx4p
via IFTTT