Por Foo Yun Chee
BRUXELAS (Reuters) - As empresas que trabalham com inteligência artificial precisam instaurar mecanismos para evitar o mau uso, disse a Comissão Europeia nesta segunda-feira, sob novas diretrizes éticas para uma tecnologia aberta ao abuso.
Os projetos de IA devem ser transparentes, ter supervisão humana e algoritmos seguros e confiáveis, e precisam estar sujeitos a regras de privacidade e proteção de dados, disse a comissão, entre outras recomendações.
A iniciativa da União Europeia abre caminho para um debate global sobre quando, ou se as empresas devem colocar preocupações éticas diante dos interesses comerciais, e quão rígidos os reguladores podem ser ao assumir novos projetos sem o risco de matar a inovação.
"A dimensão ética da IA não é uma característica de luxo ou um complemento. É somente com confiança que nossa sociedade pode se beneficiar plenamente das tecnologias", disse o chefe digital da Comissão Europeia, Andrus Ansip, em um comunicado.
A IA pode ajudar a detectar ameaças de fraude e segurança cibernética, melhorar o gerenciamento de riscos financeiros e de saúde e lidar com as mudanças climáticas. Mas também pode ser usado para apoiar práticas comerciais inescrupulosas e governos autoritários.
O executivo da UE no ano passado contou com a ajuda de 52 especialistas acadêmicos, órgãos industriais e empresas, incluindo o Google (NASDAQ:GOOGL), o SAP, o Santander (SA:SANB11) e a Bayer para colaborar na elaboração dos princípios.
As empresas e organizações podem se inscrever para um teste piloto em junho, após o qual os especialistas analisarão os resultados e a Comissão decidirá sobre as próximas etapas.