Inicio > noticias-corporativas > Reino Unido e EUA criam padrões globais para segurança em IA    
18/01/2024

Reino Unido e EUA criam padrões globais para segurança em IA

Reino Unido e EUA criam padrões globais para segurança em IA

São Paulo, SP 18/1/2024 –

Novas diretrizes para o desenvolvimento seguro de sistemas de IA ajudarão os desenvolvedores de qualquer sistema que use IA a tomar decisões direcionadas sobre segurança cibernética em todas as fases do processo de desenvolvimento

O Reino Unido publicou em novembro de 2023 as primeiras diretrizes globais para garantir o desenvolvimento seguro da tecnologia de IA. As agências de 18 países, entre eles os Estados Unidos, uniram forças para respaldar as recentes diretrizes estabelecidas no Reino Unido, concentrando-se na segurança cibernética relacionada à inteligência artificial (IA). Essas orientações, fruto de uma colaboração entre o Centro Nacional de Segurança Cibernética do GCHQ e a Agência de Segurança Cibernética e de Infraestrutura dos EUA, derivam do AI Safety Summit e buscam criar uma base sólida para a cooperação global no campo da IA.

Este marco foi respaldado por agências de outros 17 países, ratificando sua intenção de endossar e co-selar essas diretrizes, solidificando assim a posição de liderança do Reino Unido na promoção da segurança na IA. O principal objetivo dessas diretrizes é elevar os padrões de segurança cibernética da inteligência artificial, assegurando que sua concepção, desenvolvimento e implementação ocorram com máxima segurança.

As Diretrizes para o Desenvolvimento Seguro de Sistemas de IA foram desenvolvidas pelo Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido, uma parte do GCHQ, e pela Agência de Segurança Cibernética e de Infraestrutura (CISA) dos EUA em cooperação com especialistas do setor e 21 outras agências e ministérios internacionais de todo o mundo – incluindo todos os membros do grupo de nações G7 e do Sul Global.

As novas diretrizes lideradas pelo Reino Unido são as primeiras deste tipo a serem acordadas globalmente. Elas auxiliarão desenvolvedores de sistemas com IA a fazer escolhas seguras em todas as etapas do desenvolvimento, seja criando do zero ou usando ferramentas de terceiros.

As diretrizes auxiliam desenvolvedores a assegurar que a segurança cibernética seja uma condição fundamental desde o início do processo de desenvolvimento de sistemas de IA, seguindo a abordagem “segura desde a concepção”.

O produto foi lançado oficialmente num evento organizado pelo NCSC, no qual 100 principais parceiros industriais, governamentais e internacionais se reuniram para um painel de discussão sobre o desafio partilhado de proteger a IA. Os membros do painel incluíram a Microsoft, o Instituto Alan Turing e agências de segurança cibernética do Reino Unido, dos Estados Unidos, do Canadá e da Alemanha.

Markswell Coelho, coordenador da IBSEC – Instituto Brasileiro de Cibersegurança, reagiu à notícia afirmando que o lançamento dessas diretrizes de IA é um passo na direção certa, pois ajudará a expandir a cooperação internacional e a acelerar os compromissos sobre a regulamentação e uso apropriado de tecnologias de IA:

“Vejo isto como um passo positivo em termos de expansão da cooperação internacional e do discurso sobre a regulamentação e a utilização adequada das tecnologias de IA. Como tal, este documento inicial realmente fala do cenário geopolítico do avanço da IA e do seu efeito na inteligência de segurança dos países”.

As diretrizes são divididas em quatro áreas principais – design seguro, desenvolvimento seguro, implantação segura e operação e manutenção seguras – completas com sugestões de comportamentos para ajudar a melhorar a segurança.

As diretrizes podem ser acessadas no site do NCSC, juntamente com um blog dos principais funcionários do NCSC que trabalharam no produto.

Uma lista completa de signatários internacionais está abaixo:

Mais informações: IBSEC

Website: https://ibsec.com.br/