Clube de Engenharia
Fundado em 1880

O que você procura?
Revista
Autores
Categorias
Subcategorias
Tags

Somos responsáveis pelos danos provocados pela IA?

(*) Maria Luiza Reis

Crianças nascem com uma inteligência surpreendente, rapidamente aprendem a superar obstáculos, a obter o que precisam, a se comunicar. Acompanhar o desenvolvimento de um bebê é fascinante, pois é nesse momento que entendemos como o ser humano é superior a tantos outros animais e como essa inteligência vem de nascença.

Ao mesmo tempo que ficamos fascinados podemos nos perguntar: se o ser humano é tão inteligente ao nascer, por que demoramos tanto para atingir a independência? A capacidade de viver em comunidade é o principal diferencial evolutivo do homo sapiens sapiens. Essa competência é construída ao longo da vida e demora muitos anos para ser considerada segura a ponto a não precisar mais de supervisão.

À medida que crescemos, aprendemos a respeitar o próximo, a respeitar o pai e a mãe, a se colocar no lugar do outro, a respeitar a hierarquia. Esse aprendizado de empatia é tão complexo que o ser humano leva quase 20 anos para ser treinado e, enquanto isso não acontece, outros humanos são os responsáveis pelos seus atos, em particular: pais, professores e o Estado.

O que isso tem a ver com tecnologia? A inteligência artificial – IA está bem próxima de ter uma capacidade de conclusão semelhante à do humano, mas está longe de atingir o grande diferencial da humanidade que é a capacidade de agir em favor do coletivo.

Esse artigo da MIT Tech Review tem um apanhado de soluções de IA que se apresentaram maravilhosas e ao mesmo tempo desastrosas.

Precisamos assumir a supervisão de ferramentas de inteligência artificial, pois sabemos que só inteligência não basta, é necessário ter ética, moral, respeito ao próximo, respeito às leis e, enquanto a IA não consegue fazer isso sozinha, o humano deve ser responsável pelas consequências do que as ferramentas fazem sozinhas.

No final do dia, quem deverá assumir a responsabilidade pelo que a IA faz? Os programadores (equivalente aos pais biológicos), as empresas que fazem uso da tecnologia (equivalente aos pais aditivos), as agências de controle (professores) ou o Estado? Ao meu ver, pelo bem da sociedade, todos devem se empenhar para manter os limites das ferramentas de IA, ferramentas que não têm capacidade de sentir empatia, já que esse é um sentimento humano relativo a seus semelhantes.

Como esse é um mundo novo, devemos ser cautelosos para evitar grandes danos, mas também devemos punir somente em caso de dolo ou imprudência no uso da tecnologia. As normas de conduta devem ser mais explícitas, transparentes e técnicas possíveis.

Sabemos que tudo isso envolve poder econômico e estratégia de Estado e são muitas variáveis a serem analisadas, mas temos muito a perder com um mundo sem empatia.

No Rio de Janeiro, alguns grupos foram pioneiros em debates sobre e IA, como o CD&AI idealizado em 2017 e conduzido por alguns anos pelo empresário e especialista no assunto John Lemos Forman e, posteriormente, no grupo Inteligência Artificial Ética e Confiável liderado desde 2020 pelas professoras Mariza Ferro e Priscila Lima entre outros pesquisadores e empresários do setor. Antecipar o debate sobre assuntos tão relevantes para a nossa sociedade com participação de todos os atores é o ponto em comum dessas duas iniciativas que deveriam ser multiplicadas em todo o Brasil.

Também tenho o privilégio de participar ativamente em duas grandes associações de tecnologia do Brasil ABES Assoc Brasileira Empresas de Software e Federação Assespro que ajudam a fomentar o debate sobre esses assuntos tanto do lado das empresas de tecnologia quanto do lado da legislação. A união de inteligências humanas ajudarão muito ao Brasil atingir o protagonismo na IA mundial.

* Maria Luiza Reis é Presidente na ASSESPRO – RJ (Associação das Empresas Brasileiras de Tecnologia da Informação – Rio de Janeiro) e CEO da LAB 245 Software.

Print Friendly, PDF & Email

Recomendado

Próximos Eventos

  • Anuncie Aqui

  • Se você viu, seu cliente também verá!

  • Fale Conosco

    Print Friendly, PDF & Email
    Inscrição

    Enviar Carta