OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial

Startupi

OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial

A OpenAI estå expandindo seus processos internos de segurança para afastar a ameaça de IA prejudicial, a empresa acha que a tecnologia pode abrir portas para indivíduos mal-intencionados desenvolverem armas químicas e biológicas. Um novo time de segurança ficarå acima das equipes técnicas e farå recomendaçÔes à liderança e o conselho poderå vetar avanços da IA se achar necessårio.

Acesse aqui e responda ao Censo Investidores 2023! Queremos ouvir vocĂȘ!

A equipe serå liderada pelo professor de IA do MIT Aleksander Madry e contratarå pesquisadores, cientistas da computação, especialistas em segurança nacional e profissionais de políticas para monitorar e testar constantemente a tecnologia. E caso encontrem algo suspeito, avisarão a empresa.

“Temos vĂĄrias equipes de segurança e polĂ­tica trabalhando juntas para mitigar os riscos da IA. Nossa equipe de Sistemas de Segurança se concentra em mitigar o uso indevido de modelos e produtos atuais, como o ChatGPT. O superalinhamento constrĂłi as bases para a segurança de modelos superinteligentes que (esperamos) ter em um futuro mais distante. A equipe de Preparação mapeia os riscos emergentes dos modelos de fronteira e se conecta aos Sistemas de Segurança, Superalinhamento e nossas outras equipes de segurança e polĂ­tica em toda a OpenAI”, afirma a empresa.

A OpenAI diz que irĂĄ avaliar todos os seus modelos de fronteira, inclusive a cada aumento efetivo de computação de 2x durante as execuçÔes de treinamento. IrĂĄ levar os modelos aos seus limites. Para ajudar a avaliar os riscos dos modelos de fronteira e medir a eficĂĄcia de quaisquer mitigaçÔes propostas. O objetivo Ă© sondar as bordas especĂ­ficas do que nĂŁo Ă© seguro para mitigar efetivamente os riscos revelados. Para rastrear os nĂ­veis de segurança dos modelos, a empresa produz “scorecards” de risco e relatĂłrios detalhados.

OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial

Exemplo de uma avaliação dos riscos de um modelo atravĂ©s da rubrica do OpenAI. CrĂ©ditos da Imagem: OpenAI

“Definimos limites para nĂ­veis de risco ao longo das seguintes categorias iniciais rastreadas – segurança cibernĂ©tica, CBRN (ameaças quĂ­micas, biolĂłgicas, radiolĂłgicas, nucleares), persuasĂŁo e autonomia do modelo. Especificamos quatro nĂ­veis de risco de segurança, e apenas modelos com uma pontuação pĂłs-mitigação de ‘mĂ©dia’ ou abaixo podem ser implantados; apenas modelos com uma pontuação pĂłs-mitigação de ‘alta’ ou abaixo podem ser desenvolvidos ainda mais. TambĂ©m implementaremos medidas de segurança adicionais adaptadas a modelos com nĂ­veis de risco altos ou crĂ­ticos (prĂ©-mitigação)”, completa a empresa.


Acesse aqui e saiba como vocĂȘ e o Startupi podem se tornar parceiros para impulsionar seus esforços de comunicação. Startupi – Jornalismo para quem lidera a inovação.

O post OpenAI adota novas medidas para combater perigos da inteligĂȘncia artificial aparece primeiro em Startupi e foi escrito por Bruna Galati



from Startupi https://ift.tt/G2HDx4p
via IFTTT
Postagem Anterior PrĂłxima Postagem