[ editar artigo]

Inteligência Humana e Artificial: Parceria, Ética e Vieses

Inteligência Humana e Artificial: Parceria, Ética e Vieses

 

Vivemos em uma época de exponencial revolução e inflexão, não só do ponto de vista tecnológico mas também social e cultural. A quantidade de dados geradas por meios dos mais variados dispositivos, desde sensores em escala microscópica até grandes equipamentos industriais e governamentais conectados na chamada IoT (Internet of Things – Internet das Coisas), é enorme. Hoje, praticamente tudo gera dados! Inclusive nós, seres humanos, na interação com as mais diversas tecnologias. Ao mesmo tempo que estes dados são gerados, infraestruturas computacionais, até alguns anos atrás não existentes, são capazes, agora, de trafegar, armazenar e processar tais valores. Disponibilizando-os, muitas vezes, inclusive em tempo real e a diferentes usuários ao redor do globo.

Esta velocidade de geração de dados é tamanha que tornou-se humanamente impossível analisarmos todos eles (e a tempo), sem o auxílio das máquinas, para podermos tomar as decisões mais acertadas a respeito de nossas vidas, nossos negócios e até mesmo nossas comunidades. Diante desta dificuldade, os modelos de Inteligência Artificial (IA) encontraram grande valia e, dado o terreno agora fértil, principalmente em termos de novos hardwares e arquiteturas computacionais, muitos modelos deles puderam ser finalmente colocados à prova em aplicações reais, na resolução de problemas complexos cotidianos ao homem, e tem se saído incrivelmente bem.

O aprendizado dos modelos de IA pode ser comparado ao das crianças pequenas, que se baseiam em exemplos. Se apresentarmos um conjunto de imagens de gatos e cachorros, por exemplo, a uma rede neural, dizendo a ela a classe da imagem em cada caso (“gato” ou “cachorro”), ela tentará aprender padrões (no caso visuais) que maximizem suas chances de classificar novas imagens de animais domésticos destas duas espécies no futuro. Surge, porém, uma grande questão: como evitar que modelos de IA tomem decisões enviesadas e vexatórias aos seres humanos como veiculado na mídia nos últimos tempos em casos reais?

Primeiramente, precisamos ter consciência de que nós mesmos somos seres enviesados e por natureza, isto é, temos todo um contexto social, histórico, cultural, político, enfim, que delineiam, em linhas gerais, nossa forma de pensar, agir, tomar decisões e decidir o que é aceitável (“certo”) ou não (“errado”). Seguindo este pensamento, é claro que devemos construir modelos inteligentes que evitem ao máximo prejudicar determinados seres humanos em face a outros, principalmente para decisões mais complexas e com efeito significativo em suas vidas como na segurança pública (prender alguém por engano), saúde e diagnósticos médicos, decisões que afetem a vida financeira dos indivíduos, dentro outros exemplos.  Surge até uma área da própria IA, denominada xAI (Explainable AI – IA Explicável) que visa justamente tornar claro, automaticamente, aos próprios seres humanos, os motivos de eventuais tomadas de decisão pelos modelos inteligentes. Tal área hoje é tida como fundamental na construção de soluções de IA. Entretanto, temos de compreender que as máquinas reproduzem a inteligência humana e, se não eliminarmos muitos dos nossos vieses em nossas próprias decisões e sociedade, os computadores também tomarão decisões reproduzindo tais vieses.  

Além disto, importante lembrar que, assim como para as crianças pequenas, no treinamento dos modelos inteligentes, as bases de dados de treino usadas são ponto chave para o sucesso ou fracasso da solução de IA. Precisamos ter bases com amostras representativas de todas as classes do problema, se possível bem balanceadas e com dados de boa qualidade (sem ruídos ou distorções, por exemplo). Do mesmo modo que para a criança, se apresentarmos erroneamente fotos de peixes como sendo representantes da classe “cachorro” ao modelo, ele aprenderá padrões (traços visuais) de peixes para representar tal classe, ao invés de traços de cães reais, e sua performance será muito ruim. Daí a grande importância dos dados no processo do desenvolvimento do modelo de IA como um todo.

Um outro conceito importante disseminado pela comunidade internacional de IA, para evitar possíveis decisões errôneas das máquinas, é o do “The Human in the Loop”, isto é, sempre delegar a decisão final, com base nas predições dos modelos inteligentes, em especial em casos críticos como os citados, a um ser humano. Por um lado, o próprio homem pode detectar eventuais vieses, tratar ou até mesmo analisar variáveis mais macro que o modelo não é capaz de analisar. Por outro lado, o modelo pode até apresentar novas possibilidades ou evidenciar vieses nas próprias decisões humanas tomadas tradicionalmente até então.

A IA e as máquinas não vieram para substituir os seres humanos, mas para automatizar suas tarefas mais braçais e desgastantes e auxiliá-los no processo decisório, delegando a eles atividades mais desafiadoras, motivantes, criativas e prazerosas! O futuro da Inteligência passa pela parceria homem-máquina!   

Futuro dos Negócios
Ler conteúdo completo
Indicados para você