Precisamos repensar os mecanismos de segurança da IA

Precisamos repensar os mecanismos de segurança da IA

Quais são as medidas necessárias para mitigar os efeitos nocivos do uso da Inteligência Artificial em diversas aplicações?

O debate sobre o uso dessa tecnologia já é antigo, com vários casos ao longo dos anos evidenciando como a falta de controle e transparência na coleta e aplicação de dados pode gerar problemas significativos.

Diversos reguladores ao redor do mundo discutem alternativas para proteger a sociedade de um uso irresponsável. Algumas empresas já implementam protocolos e processos internos para lidar com esses riscos, mas o assunto é complexo e inclui até casos como o desmembramento da OpenAI.

Uma abordagem interessante para lidar com os riscos é a criação de um “sandbox”, uma prática já usada no setor financeiro em diversos países, incluindo o Brasil. Nesse modelo, novas tecnologias são testadas em um ambiente confinado, onde é possível validar sua segurança e garantir que os prejuízos sejam mínimos ou inexistentes antes de serem amplamente implementadas.

Neste episódio do podcast MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra discutem o assunto.

Este podcast é um oferecimento do SAS.

leave your comment


O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Este site utiliza o Akismet para reduzir spam. Fica a saber como são processados os dados dos comentários.