COMPARTILHAR

Fonte: UOL Tecnologia

Não é só no Spotify ou filme no Netflix que a máquina toma decisões por humanos. Plataformas de inteligência artificial já decidem que pena dar a criminosos nos EUA e indicam quais pessoas são mais propensas a cometer crimes no Reino Unido. Claro, você não liga para a sua playlist ser repleta de pop dos anos 90. Mas, nos exemplos seguintes, os resultados das decisões podem ser mais graves: usar dados acumulados ao longo de outras experiências pode produzir decisões enviesadas ou preconceituosas.
Resolver esse problema é algo perseguido pelas líderes no setor, como Amazon, Google e Microsoft. A IBM apresenta sua arma: colocar um robô para flagrar quando seus companheiros estão derrapando.

Fora do Brasil, não faltam casos em que sistemas de inteligência artificial reproduziram algum preconceito: nos EUA, ativistas relatam que eles já sentenciam negros a tempo maior de cadeia que brancos, mesmo histórico e cometido o mesmo crime. Sistemas de reconhecimento facial são eficientes para identificar homens brancos, mas deslizam quando têm o rosto de negros ou mulheres pela frente.

Clique aqui e leia a matéria completa.

DEIXE UMA RESPOSTA

Deixe o seu comentário
Por favor, insira o seu nome