Um assunto que chama bastante atenção no contexto da Inteligência Artificial (IA) é a ética, que inclusive é um dos 3Es propostos pela Martha Gabriel que diferenciariam o humano do robô, juntamente com a empatia e a emoção.
A ética humana podemos entender como sendo o certo que deveria ser feito, mesmo quando não há ninguém olhando. Mas será que as máquinas não estão nativamente sujeitas a esse tipo de manipulação?
Como exemplo temos o aprendizado dos carros autônomos: qual seria o correto a fazer em um caso extremo de atropelar uma pessoa ou bater seu próprio carro? E se a pessoa com eminência de atropelamento for uma criança, muda algo? E se for um idoso? Da mesma forma, se dentro do seu carro tiver um bebê, muda algo? Como fazer com que a máquina diferencie essas sutilezas?
Pode-se inclusive dizer que a depender do país ou região, a decisão do que fazer na situação exposta acima mudaria, dependendo da cultura local. Como trabalhar isso num mundo globalizado? Ensinar sistemas para carros autônomos pode ser diferente a depender dos dados da região, onde a cultura local influencia na ética, no qual as pessoas podem aceitar com maior ou menor dificuldade determinadas decisões da IA.
E isso pode influenciar nos negócios de empresas que vendem carros autônomos, nas seguradoras de veículos, nas ações judiciais em acidentes de trânsito, nas legislações acerca de tráfego automotivo. O assunto é bastante complexo e desafiador, o que demandará mais discussão e atenção da sociedade para o tema da ética na IA.