Sam Altman deixa comitê de segurança da OpenAI, que se tornará órgão independente para supervisionar a segurança dos modelos de Inteligência Artificial e suas Avaliações.
A segurança é um aspecto fundamental para a OpenAI, empresa liderada por Sam Altman, que recentemente anunciou sua saída do comitê interno de segurança criado em maio. Esse comitê foi estabelecido com o objetivo de supervisionar decisões críticas relacionadas à segurança de seus projetos e operações.
Com a saída de Sam Altman, a empresa precisará reforçar sua estratégia de proteção e prevenção para garantir a segurança de seus projetos e operações. Isso inclui a implementação de medidas de defesa contra possíveis ameaças e a continuidade do desenvolvimento de tecnologias inovadoras, como o ChatGPT, que é um exemplo de como a segurança pode ser um diferencial competitivo em um mercado cada vez mais exigente. A confiança dos usuários é fundamental para o sucesso da empresa.
Segurança em Foco: OpenAI Reforça Comitê de Supervisão
A OpenAI anunciou recentemente que seu comitê de segurança será transformado em um grupo independente de supervisão, liderado pelo professor Zico Kolter, da Carnegie Mellon University. Esse comitê, chamado Safety and Security Committee, terá a responsabilidade de monitorar as avaliações técnicas de modelos atuais e futuros, além de supervisionar o desempenho das inteligências artificiais (IAs) após seus lançamentos. A segurança é a prioridade máxima da OpenAI, e esse comitê independente será fundamental para garantir a proteção e a defesa dos modelos de IA.
O comitê, que inclui membros como Adam D’Angelo, CEO do Quora, o General aposentado Paul Nakasone, do Exército dos EUA, e a ex-vice-presidente da Sony, Nicole Seligman, terá a autoridade de adiar lançamentos de modelos caso identifique riscos de segurança. Além disso, a OpenAI está aprimorando seus processos de lançamento, buscando critérios claros de sucesso para garantir a segurança e a integridade desses modelos.
Recomendações de Segurança: Um Passo em Direção à Proteção
A postagem no blog da OpenAI detalhou cinco áreas de melhoria nas práticas de segurança e governança que serão implementadas após uma revisão de 90 dias feita pelo comitê. Essas recomendações incluem:
* Governança independente de segurança: o comitê se tornará um comitê independente de supervisão do conselho, responsável por monitorar os processos de segurança da OpenAI para o desenvolvimento e implantação de modelos de IA.
* Aprimoramento de medidas de segurança: a OpenAI está expandindo suas operações de segurança para lidar com os riscos crescentes associados ao desenvolvimento de IA.
* Transparência nos trabalhos de segurança: a empresa busca maior transparência, divulgando cartões de sistema que explicam as capacidades e riscos de seus modelos.
* Colaboração com organizações externas: a OpenAI está intensificando colaborações com organizações independentes e laboratórios governamentais para aprimorar a segurança no uso de IA em ambientes científicos.
* Unificação de estruturas de segurança: a empresa está estabelecendo um quadro integrado de segurança para o desenvolvimento e monitoramento de seus modelos, com critérios claros de sucesso.
Essas recomendações demonstram o compromisso da OpenAI com a segurança e a proteção de seus modelos de IA. A empresa está trabalhando arduamente para garantir que seus modelos sejam seguros e confiáveis, e que a defesa contra ameaças cibernéticas seja uma prioridade máxima. Com a implementação dessas recomendações, a OpenAI está reforçando sua posição como líder no desenvolvimento de IA segura e responsável.
Fonte: @Olhar Digital
Comentários sobre este artigo