inova.jor

inova.jor

Como evitar preconceito e injustiça na inteligência artificial

Inteligência artificial: Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Parte do sistema foi desenvolvida no Thomas J. Watson Research Center / Daniel Langer

A inteligência artificial pode reproduzir, inadvertidamente, preconceitos humanos.

Por exemplo, um sistema desenhado para apontar qual é o melhor perfil de dirigente de grande empresa, com base nas 500 maiores da Fortune, corre o risco de chegar à conclusão de que CEOs precisam ser homens brancos.

Mal aplicada, a computação cognitiva pode automatizar injustiça e discriminação, com efeitos profundos na vida das pessoas.

Por causa disso, é preocupação crescente das companhias ter ferramentas para garantir que sistemas inteligentes tomem decisões de acordo com regras de governança e com a legislação.

Ontem (19/9), a IBM lançou um serviço de software chamado Trust and Transparency (confiança e transparência), para detectar vieses e explicar como a inteligência artificial decide.

“É importante ressaltar que a tecnologia revela quais parâmetros que a inteligência artificial usa para chegar às recomendações de decisões”, afirma Alexandre Dietrich, líder de IBM Watson Brasil. “Esse é um primeiro passo bastante importante, já que, no mundo corporativo, temos de explicar porque as decisões de negócios foram tomadas e quais os caminhos que seguimos para chegar nelas.”

O serviço roda na nuvem e permite gerenciar sistemas em plataformas de outros fornecedores, além do Watson.

Colaboração

Além disso, a IBM decidiu oferecer à comunidade de código aberto um conjunto de ferramentas para detecção e mitigação de viés, para incentivar a colaboração a respeito do tema.

Segundo relatório da empresa, apesar de 82% das empresas planejarem adotar inteligência artificial:

  • 60% temem ser penalizadas por decisões dos sistemas; e
  • 63% não possuem colaboradores com habilidades para gerenciar com confiança a tecnologia.

O serviço da IBM foi desenvolvido para detectar decisões com viés no momento em que são tomadas, apontando resultados injustos no momento em que ocorrem. Também recomenda dados a serem acrescentados ao modelo para mitigar o viés.

“Regulações como GDPR e LGPD apenas reforçam esse cenário de preocupação com uso dos dados e a IBM está sendo pioneira em abrir a caixa-preta da inteligência artificial”, complementa Dietrich.

GPDR é a lei de proteção de dados pessoais europeia e LGPD é a brasileira.

Comentários

comentários

Publicações relacionadas

A USP lidera a produção científica mundial sobre cosméticos / Juanedc/Creative Commons

Quais foram as 10 reportagens mais lidas de 2016

Big data, internet das coisas, expansão da banda larga e investimentos em startups foram alguns dos temas de tecnologia e inovação em destaque neste ano. Isso se reflete na relação das dez reportagens mais lidas de 2016 no inova.jor. De certa forma, a lista também serve como retrospectiva do ano. Apesar da[…]

Leia mais »

Como a tecnologia muda o mercado de vídeo

As grandes empresas de vídeo – incluindo as que prestam serviço via internet – precisarão ser transversais e atuar em diferentes áreas para se manter no mercado na próxima década. A afirmação faz parte de um estudo sobre uma série de tendências e perspectivas do mercado de vídeo no Brasil e no[…]

Leia mais »

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Bitnami