inova.jor

inova.jor

Como evitar preconceito e injustiça na inteligência artificial

Inteligência artificial: Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Parte do sistema foi desenvolvida no Thomas J. Watson Research Center / Daniel Langer

A inteligência artificial pode reproduzir, inadvertidamente, preconceitos humanos.

Por exemplo, um sistema desenhado para apontar qual é o melhor perfil de dirigente de grande empresa, com base nas 500 maiores da Fortune, corre o risco de chegar à conclusão de que CEOs precisam ser homens brancos.

Mal aplicada, a computação cognitiva pode automatizar injustiça e discriminação, com efeitos profundos na vida das pessoas.

Por causa disso, é preocupação crescente das companhias ter ferramentas para garantir que sistemas inteligentes tomem decisões de acordo com regras de governança e com a legislação.

Ontem (19/9), a IBM lançou um serviço de software chamado Trust and Transparency (confiança e transparência), para detectar vieses e explicar como a inteligência artificial decide.

“É importante ressaltar que a tecnologia revela quais parâmetros que a inteligência artificial usa para chegar às recomendações de decisões”, afirma Alexandre Dietrich, líder de IBM Watson Brasil. “Esse é um primeiro passo bastante importante, já que, no mundo corporativo, temos de explicar porque as decisões de negócios foram tomadas e quais os caminhos que seguimos para chegar nelas.”

O serviço roda na nuvem e permite gerenciar sistemas em plataformas de outros fornecedores, além do Watson.

Colaboração

Além disso, a IBM decidiu oferecer à comunidade de código aberto um conjunto de ferramentas para detecção e mitigação de viés, para incentivar a colaboração a respeito do tema.

Segundo relatório da empresa, apesar de 82% das empresas planejarem adotar inteligência artificial:

  • 60% temem ser penalizadas por decisões dos sistemas; e
  • 63% não possuem colaboradores com habilidades para gerenciar com confiança a tecnologia.

O serviço da IBM foi desenvolvido para detectar decisões com viés no momento em que são tomadas, apontando resultados injustos no momento em que ocorrem. Também recomenda dados a serem acrescentados ao modelo para mitigar o viés.

“Regulações como GDPR e LGPD apenas reforçam esse cenário de preocupação com uso dos dados e a IBM está sendo pioneira em abrir a caixa-preta da inteligência artificial”, complementa Dietrich.

GPDR é a lei de proteção de dados pessoais europeia e LGPD é a brasileira.

Comentários

comentários

Publicações relacionadas

O próximo workshop do inova.jor tem como tema LinkedIn para reputação e negócios / inova.jor

Participe do workshop sobre LinkedIn para reputação e negócios

Transparência é essencial para gerar confiança. O LinkedIn é a maior rede social de negócios do mundo, e seu potencial vai muito além das atividades de seleção e recrutamento. Uma boa presença pessoal no LinkedIn cria oportunidades de ter contato direto com públicos de interesse, construir confiança e gerar negócios.[…]

Leia mais »
Primeiro uso comercial do Multi, elevador sem cabos da Thyssenkrupp, será em Berlim / Divulgação

Elevador da ThyssenKrupp também vai para os lados

A Thyssenkrupp inaugurou, na semana passada, um sistema de elevador sem cabos, que também se move para os lados. Chamado de Multi, foi instalado numa torre de 246 metros em Rottweil, no centro de pesquisa e desenvolvimento da empresa na Alemanha. No lugar de uma única cabina, que se move[…]

Leia mais »

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Bitnami