Você está interessado neles OFERTAS? Economize com nossos cupons em WhatsApp o TELEGRAMA!

OpenAI cria equipe para riscos ‘catastróficos’ de IA. É por isso que nos preocupa

OpenAI, uma empresa hoje na vanguarda do campo da inteligência artificial, recentemente anunciado a criação de uma nova equipa com a tarefa específica de avaliar e mitigar riscos potencialmente catastróficos associados ao avanço das tecnologias relacionadas à IA. Esta mudança destaca a importância crescente de abordar proativamente os desafios e perigos que os modelos generativos podem trazer. Obviamente, onde não são devidamente monitorados.

Identificação de riscos por OpenAI

À medida que a inteligência artificial evolui rapidamente, surgem novos riscos que poderão ter impactos graves à escala global. Para isso, a nova equipe de preparação do OpenAI se dedicará a desenhar, pesar, fornecer e proteger contra esses problemas potenciais. Entre os riscos identificados estão: ameaças nuclear, um tema que destaca a urgência de uma ação responsável no domínio da IA.

Além das ameaças nucleares, a equipa também se concentrará nos perigos relacionados com as substâncias. química, biológica e radiológica, bem como em ffenômeno de autorreplicação da inteligência artificial, ou a capacidade de um sistema de inteligência artificial se replicar de forma autônoma. Outras áreas de foco incluem a capacidade da IA ​​de enganar os humanos e ameaças um cíber segurança.

Benefícios e desafios da IA ​​avançada

A OpenAI reconhece que os modelos de IA de fronteira, aqueles que ultrapassam as capacidades dos modelos existentes mais avançados, têm o potencial de beneficiar toda a humanidade. E não, ao contrário do que você pensa, oA inteligência artificial não está aqui para roubar nossos empregos mas sim, para criá-lo.

Porém, com grande poder, também vem uma grande responsabilidade. É portanto essencial desenvolver políticas informado sobre os riscos, o que lhe permite avaliar e monitorar modelos de IA, para garantir que os benefícios superam os riscos associados.

openai oferece recompensas por encontrar bugs no chatgpt

Veja também: DeepMind tem a solução para prevenir riscos de IA

A liderança desta nova equipa foi confiada a Alexandre Madry, uma figura importante no campo do aprendizado de máquina. Atualmente em licença de seu função de diretor de Centro de Aprendizado de Máquina Implantável do MIT, Sensato coordenará esforços para desenvolver e manter uma política de desenvolvimento informada sobre os riscos.

Rumo a uma prioridade global

O CEO da OpenAI, Sam Altman, não é novo às preocupações sobre os riscos potencialmente catastróficos da IA. Ele sugeriu que o tratamento das tecnologias de IA deveria ser plevado tão a sério quanto o das armas nucleares, destacando a necessidade de um esforço coletivo para mitigar os riscos de extinção associados à IA. Esta nova equipa representa um passo concreto para concretizar esta visão, destacando o compromisso da OpenAI em contribuir para um gestão responsável da Inteligência Artificial.

Gianluca Cobucci
Gianluca Cobucci

Apaixonado por código, linguagens e linguagens, interfaces homem-máquina. Tudo o que é evolução tecnológica me interessa. Procuro divulgar minha paixão com a maior clareza, confiando em fontes confiáveis ​​e não “à primeira vista”.

Subscrever
notificar
convidado

0 comentários
Comentários em linha
Ver todos os comentários
XiaomiToday.it
Logotipo