top of page

O verdadeiro problema na criação de uma Inteligência Artificial

  • Foto do escritor: Andressa Siqueira
    Andressa Siqueira
  • 2 de jul. de 2023
  • 11 min de leitura

Atualizado: 23 de jul. de 2023

Um dos grandes desafios atuais no desenvolvimento de uma Inteligência Artificial (IA) é o problema de alinhamento de valores entre uma máquina e os interesses e preferências da humanidade. Mas o que é exatamente esse problema de alinhamento, como ele surgiu e será que é um problema futuro ou atual é o que eu vou falar nesse artigo.


Imagem representativa da interação entre o homem e inteligência artificial



O surgimento da Inteligência artificial e suas leis.


Podemos dizer que tudo isso se iniciou com o pensamento de máquinas que fizessem os serviços pesados e/ou repetitivos dos serem humanos e com o tempo, a ideia de replicar a capacidade humana de pensar, analisar situações tomar decisões a essa máquina foi ganhando cada vez mais força...


Não é possível apontar onde se originou a primeira ideia de robôs ou de uma IA, tendo em vista que nem todos que um dia pensaram nisso, revelaram seus pensamentos ou deixaram algo escrito sobre o tema, infelizmente.


Um dos marcos considerado importante para a Inteligência Artificial e para a robótica foi a criação das leis de Asimov em 1942 no conto "Runaround.


Asimov e suas leis


Isaac Asimov era um escritor e um bioquímico, considerado um dos mais importantes escritores de ficção científica do século XX.

O Jovem Isaac Asimov, em foto tirada antes de 1959.
O Jovem Isaac Asimov, em foto tirada antes de 1959.

A carreira de Asimov como escritor de ficção científica começa 1942. Carreira bem conhecida e que aos fãs da literatura de ficção científica e com diversas obras premiadas. [2]


O trabalho mais famoso de Asimov é a Série Fundação (1942 – 1993) composto por 7 livros; suas outras séries principais são a série Império Galáctico (1950 – 1952) e a série Robôs (1954 – 1985) que incluem o livro "Eu, Robô".


Em 1942, Asimov lançou um conto chamado "Runaround" onde mencionou pela primeira vez as três leis da robótica que regeriam o comportamento dos robôs em suas histórias e que servem de base até hoje quando se fala em IA. Posteriormente, ao longo de suas obras, Asimov refinou e expandiu essas leis para abordar diferentes cenários e dilemas éticos relacionados à interação entre humanos e robôs.


Em 1985, em seu romance "Robôs e Império", Asimov fez uma adição as três leis da robótica, que ficou conhecida como a lei Zero da Robótica e está acima da outras.


As leis da Robótica


Concebidas como um dispositivo literário para explorar as implicações éticas e práticas na criação das IA, as leis de Asimov são:

  1. Primeira Lei: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.

  2. Segunda Lei: Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.

  3. Terceira Lei: Um robô deve proteger sua própria existência, desde que essa proteção não entre em conflito com a Primeira ou Segunda Lei.

  4. Lei Zero: Um robô não pode causar dano à humanidade ou, por inação, permitir que a humanidade sofra algum mal.

A ideia de Asimov era examinar as complexidades morais e os desafios de criar e conviver com IAs avançadas. Ao criar as leis, ele tentou estabelecer um equilíbrio entre a utilidade e a potencialidade dos robôs em relação à proteção e segurança dos seres humanos.

Mas a aplicação das leis de Asimov em IAs não são simples e enfrentam vários desafios tais como:

  1. Ambiguidade e interpretação: As leis são formuladas podem ter interpretações diferentes em situações específicas. O que pode ser considerado "prejudicar um ser humano" ou "obedecer às ordens" pode variar dependendo do contexto, o que dificulta a aplicação consistente das leis.

  2. Conflitos entre as leis: Em certas situações, pode haver conflitos entre as Leis da Robótica. Por exemplo, um robô pode ter que escolher entre proteger a vida de um ser humano imediato (Primeira Lei) ou seguir uma ordem que beneficie a humanidade toda (Segunda Lei).

  3. Complexidade das situações reais: A realidade é muitas vezes mais complexa do que os cenários simplificados apresentados nos contos de Asimov. Situações do mundo real podem envolver dilemas éticos e situações imprevisíveis que dificultam a aplicação direta das leis.

  4. Falibilidade humana: A criação e programação dos robôs são realizadas por seres humanos, que estão sujeitos a erros e vieses. A incorreta formulação das leis ou a programação inadequada dos robôs pode levar a comportamentos indesejáveis, ou incompatíveis com as leis.

  5. Interações complexas e imprevisíveis: À medida que a inteligência artificial se torna mais avançada, os sistemas autônomos podem ter a capacidade de tomar decisões de forma mais independente e interagir com o ambiente de maneiras complexas. Isso pode dificultar a previsão de todos os possíveis desdobramentos e comportamentos dos robôs, tornando a aplicação das leis desafiadora.

Afinal como criar um ser perfeito levando como espelho serem tão complexos e imperfeitos como os serem humanos? Como ensinar ética e moralidade que possam ser consideradas 100% corretas por todos os serem humanos para uma máquina se nem todos pensamos iguais? E aqui entra o problema do alinhamento.


O Problema do alinhamento


O problema de alinhamento pode ser resumido da seguinte forma:

"Problema associado à construção de sistemas de inteligências artificiais poderosos que são alinhados com seus operadores." [1]

O grande desafio é conseguir alinhar as tomadas de decisões de uma máquina com os interesses gerais e preferências da humanidade sem causar grandes consequências prejudiciais.


Porém, uma das primeiras dificuldades encontradas é que não existe um tema em que todos os seres humanos pensam igual. Quais crenças e valores devem ser passados para a IA? Como traduzir os valores humanos que são tão complexos e sutis em uma definição precisa e operacional sem margem de falhas para uma máquina e que não gere conflito entres as leis.


Alguns outros aspectos desse problema incluem:

  1. Compreensão dos valores: Os sistemas autônomos precisam ter uma compreensão precisa dos valores humanos e das nuances éticas associadas a diferentes situações. Essa compreensão requer um conhecimento aprofundado do contexto humano, que pode ser difícil de capturar e representar em algoritmos e modelos.

  2. Adaptação a mudanças: Os valores humanos não são estáticos, e as preferências e prioridades podem mudar ao longo do tempo. Garantir que os sistemas autônomos sejam capazes de se adaptar a essas mudanças de forma adequada e alinhada com os valores em evolução é um desafio.

  3. Aprendizado de máquina enviesado: Os sistemas de aprendizado de máquina podem ser suscetíveis a viés, refletindo e ampliando os preconceitos e desigualdades presentes nos dados de treinamento. Isso pode levar a comportamentos discriminatórios ou injustos que estão em conflito com os valores humanos.


Podemos perceber que um dos principais pontos do problema do alinhamento são os dados usados para que as máquinas aprendam, pois todo conteúdo aprendido por uma máquina está ligado diretamente com o conteúdo mostrado nesses dados. A falta de dados os dados de qualidades ruins podem ocasionar diversos problemas.


Um exemplo hipotético para reflexão: Imagine que você é contrato para determinar os valores e regras de uma IA superpoderosa visando que nenhum ser humano fique mais doente. Então você coloca como regra que nenhum ser humano jamais deverá passar mal e ter doenças e isso é implementado. Mas você concorda comigo que um ser humano só passa mal e fica doente se estiver vivo. Por conta disso, a IA que você programou começa a cortar suprimentos como água, luz e até mesmo comida, levando a extinção da raça humana em pouco tempo. O problema foi resolvido no final, se não existir o ser humano então não existira seres humanos doentes.


Ao tentar resolver esse problema, provavelmente você chegar a outro, talvez não tão obvio, o que fará com que só percebamos o problema quando ele ocorrer. Dependendo de como for programada essa IA, ao percebemos o problema e tentarmos desligá-la, por exemplo, ela poderá entrar em guerra com os seres humanos pois ela estará tentando se autopreservar.


Se nós precisamos definir um objetivo para uma inteligência artificial, nós precisamos ter 100% de certeza que esse objetivo é exatamente o que queremos.[1]

Grandes nomes da IA como Yousha Bengio, Geoffrey Hinton e Alan Turing já indicavam que uma IA desalinhada traria grande riscos a humanidade e só teríamos uma chance de obter uma IA com superinteligência, acertando os valores e éticas dessa IA [1].


Esse dilema não é coisa do futuro


Alguns exemplos enfrentados atualmente já mostram que o problema de alinhamento existe e que já estamos vivenciando isso.


Um exemplo ocorreu com os carros autônomos. A ideia dos carros autônomos, também conhecidos como veículos autônomos ou veículos sem motorista, é proporcionar um meio de transporte seguro, eficiente e conveniente, utilizando avançados sistemas de inteligência artificial (IA) e sensores para realizar as tarefas de direção de forma autônoma, sem intervenção humana.


Apesar das IAs desses carros terem sido exaustivamente treinadas com dados, tais como: sinal vermelho significa que o carro deve parar, reconhecimento de pessoas para que fosse evitado atropelamento e reconhecimento de outros carros para evitar acidentes de trânsito, em 2018 um carro autônomo da Uber que se envolveu em um grave acidente em Tempe, Arizona, Estados Unidos, onde uma pessoa foi a óbito.


Carro autônomo da Uber atropela ciclista
Carro autônomo da Uber atropela ciclista [12]

Após investigar quais foram as condições que levaram a esse acidente, eles descobriram que o carro estava preparado para evitar vários cenários, incluindo os seguintes cenários:

  • Pedestres na faixa de pedestre

  • Pessoas andando de bicicleta

  • E bicicletas estacionadas


Porém, a IA parece nunca ter sido treinada para os seguintes cenários: uma pessoa andando na rua, fora da faixa de pedestre e uma pessoa andando com sua bicicleta do lado. Por nunca ser treinada para esse cenário, estar com os freios de emergência desabilitados e o sistema de segurança estar configurado com o nível de sensibilidade excessivamente baixo, a IA detectou o pedestre, porém seguiu em frente como se estivesse diante de um falso positivo levando ao acidente.


Outro exemplo bem simples aconteceu com a Amazon. Criada em 2014, a IA era a esperança da empresa para automatizar o processo de seleção de currículos. Ela foi treinada com base nas contratações feitas pela empresa nos últimos dez anos para aprender os padrões que pudessem indicar quem seriam os melhores funcionários. Porém, pela área de tecnologia ainda ser dominada por homens, esse treinamento levou a IA ser machista, onde ela dava notas mais baixas para currículos que continham a palavra ‘mulher’. Em um dos casos, a ferramenta julgou como algo negativo uma candidata ter sido capitã de um clube de xadrez para mulheres.



Software identificava currículos com a palavra “mulheres” para vetá-los
Software identificava currículos com a palavra “mulheres” para vetá-los [7]

Essa não era a única falha da inteligência artificial da Amazon. Ela também passou a ignorar informações importantes para os cargos, como as habilidades dos candidatos em diversas linguagens de programação, e a favorecer currículos com as palavras “executar” e “capturar”, disse uma das fontes.[6]


O último caso que vou trazer de exemplo para vocês foi o caso da classificação do google photos que ocorreu em 2015. Jacky Alciné, um usuário do app da Google, fez o upload de algumas de suas fotos tiradas com sua amiga para o armazenamento da empresa. Contudo, ao vascular o serviço por esses arquivos, encontrou todas as imagens organizadas em um álbum intitulado "Gorilas". O detalhe é que tanto Jacky Alciné quanto sua companheira são negros. Além de ser duramente criticado por conta desse enviesamento, a Google também foi criticada por “consertar” seu algoritmo de reconhecimento de imagem racista simplesmente removendo a palavra “gorila” da ferramenta de “autotag” e bloqueando a identificação de gorilas, chimpanzés e macacos.


Classificação erronea de pessoa negra como Gorilas pelo Google Photos
Classificação errônea de pessoa negra como Gorilas pelo Google Photos [8]
O primeiro tweet de Jacky Alciné sobre o assunto
O primeiro tweet de Jacky Alciné sobre o assunto [8]



E tem como prevenir esses problemas?


Não existe uma fórmula certa para conseguir prevenir esse problema na área da IA porém existe algumas abordagens que pode ajudar a diminuir esses problemas.


Na visão ética e científica podemos enumerar as seguintes abordagens


  1. Definição clara de objetivos da IA: É fundamental definir de forma clara e simples os objetivos e os valores que os sistemas autônomos devem seguir. Para isso é necessário um processo cuidadoso de especificação e documentação dos valores e princípios éticos que devem orientar o comportamento do sistema.

  2. Engajamento ético e multidisciplinar: Ter uma equipe bem diversificada em relação a sexo, religião, raça, orientação sexual e envolver especialistas em ética, filosofia, direito e outras áreas relevantes pode ajudar a trazer visões diferentes para a discussão garantindo uma abordagem mais abrangente.

  3. Treinamento e validação de dados: É importante garantir que os dados usados no treinamento dos sistemas autônomos sejam representativos e pouquíssimos enviesados, digo isso pois ter dados sem nenhum enviesamento é impossível, tendo em vista que todos nós temos nossos vieses. Além disso, é necessário validar os dados e avaliar constantemente se eles estão alinhados com os valores desejados.

  4. Transparência e auditoria: Ter transparência nos processos de tomadas de decisões dos sistemas autônomos, permitindo que seus processos e decisões sejam compreensíveis e auditáveis, pode ajudar a identificar potenciais desalinhamentos de valores. Isso inclui registrar e documentar todas as decisões tomadas pelo sistema.

  5. Aprendizado contínuo e adaptação: Os sistemas autônomos devem ser projetados para aprender e se adaptar a partir das interações e feedbacks recebidos. Isso permite que eles se ajustem a mudanças nos valores e preferências humanas ao longo do tempo.

Na visão de programação de uma Ia podemos seguir a abordagem abaixo:


  • Loss Function: Também conhecida como Função de perda ou função de erro, essa função é normalmente usada na otimização de modelos de aprendizado de máquina. Ela uma medida matemática usada para quantificar a diferença entre as previsões do modelo e os valores reais durante o treinamento.

A escolha da função de perda pode influenciar indiretamente o comportamento do modelo treinado e, consequentemente, sua aderência aos valores desejados. Por exemplo, ao projetar a função de perda, é possível considerar penalizações específicas para comportamentos indesejáveis ou recompensas para comportamentos alinhados com os valores desejados. Mas como definir quais são os erros mais graves e que devem ser penalizados se dependendo de um contexto, aquele ato pode ter sido de legitima defesa ou de tentativa de cumprir o objetivo principal estabelecido para aquela IA.


Tema abordado na ficção


Vários filmes já abordam esse dilema e possíveis consequências de determinadas situações nas quais houve problemas na hora da definição de objetivos e valores, ou viesses nos dados apresentados e assim por diante. Aqui tem alguns filmes que abordam esse tema:


  1. 2001: Uma Odisséia no Espaço (1968): Dirigido por Stanley Kubrick, o filme explora a relação entre a humanidade e uma inteligência artificial chamada HAL 9000. Aborda questões de consciência, controle e as implicações do alinhamento de valores entre humanos e máquinas.

  2. Ex Machina (2014): O filme retrata um programador que é convidado a participar de um experimento com uma inteligência artificial avançada. Ele se depara com questões de consciência, ética e alinhamento de valores à medida que interage com a IA.

  3. Blade Runner (1982) e Blade Runner 2049 (2017): Esses filmes de ficção científica exploram a relação entre humanos e replicantes, androides criados à semelhança dos humanos. A narrativa levanta questões sobre identidade, moralidade e o alinhamento de valores entre humanos e máquinas.

  4. Her (2013): O filme apresenta um escritor solitário que se apaixona por um sistema operacional de inteligência artificial. A história aborda a natureza do amor, da conexão humana e das complexidades do relacionamento entre humanos e IA.

  5. A.I. - Inteligência Artificial (2001): Dirigido por Steven Spielberg e baseado em um conto de Brian Aldiss, o filme imagina um futuro em que robôs com aparência humana são usados como substitutos para crianças. O filme explora temas como a natureza da consciência, a busca por aceitação e o alinhamento de valores.

  6. Matrix (1999): Este filme de ficção científica apresenta uma realidade simulada em que a humanidade é controlada por máquinas. O enredo aborda temas de livre-arbítrio, realidade virtual e a busca por liberdade individual.

Esses filmes podem provocar reflexões sobre as implicações éticas e morais das tecnologias e o impacto dessas questões na sociedade.


Conclusão


Infelizmente não existe ainda parâmetros fechados para lidar com o problema de alinhamento de dados tendo em vista que é impossível pensar e determinar todos os cenários possíveis em todas as situações. Esse é um dos motivos que existe abordagem a fim de minimizar o problema e o porquê de uma IA, após implementada, ser sempre supervisionada sendo levado em conta nas análises os cenários e suas respectivas decisões de forma que possamos corrigir erros de todos os tipos.



Referências

  1. O Verdadeiro Problema de Inteligências Artificiais. Disponível em: <https://youtu.be/IH-wBijX53M>. Acesso em: 2 jul. 2023.

  2. Biografia de Isaac Asimov. Disponível em: <https://www.ebiografia.com/isaac_asimov/>.

  3. RUSSELL, S. J.; NORVIG, P. Inteligência Artificial - Uma Abordagem Moderna. [s.l: s.n.].

  4. Carro autônomo da Uber atropela e mata mulher nos EUA. Disponível em: <https://autoesporte.globo.com/videos/noticia/2018/03/carro-autonomo-da-uber-atropela-e-mata-mulher-nos-eua.ghtml>. Acesso em: 2 jul. 2023.

  5. Uber se livra de culpa em acidente com carro autônomo que matou pedestre. Disponível em: <https://tecnoblog.net/noticias/2019/03/06/uber-culpa-acidente-carro-autonomo-morte/>. Acesso em: 2 jul. 2023.

  6. IA da Amazon usada em análise de currículos discriminava mulheres. Disponível em: <https://www.tecmundo.com.br/software/135062-ia-amazon-usada-analise-curriculos-discriminava-mulheres.htm>.

  7. HTTPS://WWW.FACEBOOK.COM/LARISSA.XIMENES.1460. IA machista: ferramenta de recrutamento na Amazon é preconceituosa. Disponível em: <https://www.showmetech.com.br/ia-machista-ferramenta-de-recrutamento-na-amazon-revela-preconceito-contra-mulheres/>. Acesso em: 2 jul. 2023.

  8. Fail épico: sistema do Google Fotos identifica pessoas negras como gorilas. Disponível em: <https://www.tecmundo.com.br/google-fotos/82458-polemica-sistema-google-fotos-identifica-pessoas-negras-gorilas.htm>. Acesso em: 2 jul. 2023.

  9. Google marca fotos de casal de negros como “gorilas”. Disponível em: <https://exame.com/tecnologia/google-marca-fotos-de-casal-de-negros-como-gorilas/>. Acesso em: 2 jul. 2023.

  10. PRESSE, D. F. Google pede desculpas por app de foto confundir negros com gorilas. Disponível em: <https://g1.globo.com/tecnologia/noticia/2015/07/google-pede-desculpas-por-app-de-foto-confundir-negros-com-gorilas.html>. Acesso em: 2 jul. 2023.

  11. DINIZ, M. Google é criticado por banir termo “gorila” após caso de racismo. Disponível em: <https://catracalivre.com.br/quem-inova/google-e-criticado-por-banir-termo-gorila-apos-caso-de-racismo/>. Acesso em: 2 jul. 2023.

  12. Carro autônomo da Uber teve 37 acidentes antes de matar pessoa nos EUA. Disponível em: <https://www.uol.com.br/carros/noticias/redacao/2019/11/08/carro-autonomo-da-uber-teve-37-acidentes-antes-de-matar-pessoa-em-2018.htm>. Acesso em: 2 jul. 2023.


Comentários


Assine a newsletter e fique sempre por dentro dos artigos que escrevo 

Obrigado(a)!

CONTATO

Obrigado pelo envio!

© 2020 por Andressa Siqueira. Orgulhosamente criado com Wix.com

bottom of page