inova.jor

inova.jor

Como evitar preconceito e injustiça na inteligência artificial

Inteligência artificial: Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Parte do sistema foi desenvolvida no Thomas J. Watson Research Center / Daniel Langer

A inteligência artificial pode reproduzir, inadvertidamente, preconceitos humanos.

Por exemplo, um sistema desenhado para apontar qual é o melhor perfil de dirigente de grande empresa, com base nas 500 maiores da Fortune, corre o risco de chegar à conclusão de que CEOs precisam ser homens brancos.

Mal aplicada, a computação cognitiva pode automatizar injustiça e discriminação, com efeitos profundos na vida das pessoas.

Por causa disso, é preocupação crescente das companhias ter ferramentas para garantir que sistemas inteligentes tomem decisões de acordo com regras de governança e com a legislação.

Ontem (19/9), a IBM lançou um serviço de software chamado Trust and Transparency (confiança e transparência), para detectar vieses e explicar como a inteligência artificial decide.

“É importante ressaltar que a tecnologia revela quais parâmetros que a inteligência artificial usa para chegar às recomendações de decisões”, afirma Alexandre Dietrich, líder de IBM Watson Brasil. “Esse é um primeiro passo bastante importante, já que, no mundo corporativo, temos de explicar porque as decisões de negócios foram tomadas e quais os caminhos que seguimos para chegar nelas.”

O serviço roda na nuvem e permite gerenciar sistemas em plataformas de outros fornecedores, além do Watson.

Colaboração

Além disso, a IBM decidiu oferecer à comunidade de código aberto um conjunto de ferramentas para detecção e mitigação de viés, para incentivar a colaboração a respeito do tema.

Segundo relatório da empresa, apesar de 82% das empresas planejarem adotar inteligência artificial:

  • 60% temem ser penalizadas por decisões dos sistemas; e
  • 63% não possuem colaboradores com habilidades para gerenciar com confiança a tecnologia.

O serviço da IBM foi desenvolvido para detectar decisões com viés no momento em que são tomadas, apontando resultados injustos no momento em que ocorrem. Também recomenda dados a serem acrescentados ao modelo para mitigar o viés.

“Regulações como GDPR e LGPD apenas reforçam esse cenário de preocupação com uso dos dados e a IBM está sendo pioneira em abrir a caixa-preta da inteligência artificial”, complementa Dietrich.

GPDR é a lei de proteção de dados pessoais europeia e LGPD é a brasileira.

Publicações relacionadas

CDO tem aparecido frequentemente nas listas de profissões do futuro / flikr/Creative Commons

Por que é importante ter um chief digital officer

Ele é o executivo responsável por liderar a transformação digital das empresas. A cada dia, tem sido mais requisitado por companhias de diversos segmentos, como indústria, tecnologia, varejo e instituições financeiras. O chief digital officer (CDO) tem aparecido frequentemente na lista das profissões do futuro. De acordo com o Gartner,[…]

Leia mais »
CPFL Energia seleciona scaleups com projetos inovadores / Divulgação

CPFL Energia seleciona projetos inovadores para setor elétrico

A CPFL Energia busca projetos inovadores para o setor elétrico e gestão corporativa. Os interessados podem se inscrever até 15 abril no site do programa de aceleração CPFL Inova, criado em parceria com a Endeavor e que está em sua segunda edição. O objetivo é selecionar 12 scaleups (empresas com[…]

Leia mais »