Reportagem

Mil cientistas alertam para os perigos da inteligência artificial

Eram, na altura, especialistas em tecnologia, cientistas, investigadores de várias áreas, filósofos. Entre eles contam-se o cientista, Stephen Hawking, o filósofo e linguista, Noam Chomsky, o co-fundador da Apple, Steve Wozniak, e o responsável do departamento de Inteligência Artificial (IA) da Google, Demis Hassabis.

03/11/2023  Última atualização 09H40
Stephen Hawking (1942-2018), físico teórico, cosmólogo e autor britânico, é um dos mais renomados estudiosos e reconhecido internacionalmente pela sua contribuição à ciência © Fotografia por: DR
Eram mais de mil investigadores preocupados com o futuro da humanidade que publicaram uma carta aberta a alertar para os perigos das armas autónomas construídas com recurso à IA – armas que "seleccionam e escolhem alvos sem intervenção humana” e que, se esse caminho for seguido, eventualmente vão "estar para lá do controlo humano”.

As suas proposições continuam válidas até hoje, na medida em que surgem novas pesquisas que apontam para os mesmos perigos, quando se trata do recurso à inteligência artificial para "revolucionar” a ciência e tecnologia ao serviço da humanidade.

Um dos maiores fascínios da nossa era, a IA é ao mesmo tempo assustadora quando se imagina o que aguarda a espécie humana no futuro. Ainda não tinham sido desenvolvidos os primeiros protótipos funcionais de IA e já a ideia de a criação escravizar e exterminar o criador pululava. Entretanto apareceram os drones, ou aviões não tripulados, que já são usados em vários teatros de guerra, matando civis de forma indiscriminada. Apareceram carros inteligentes que conduzem sozinhos e que, na semana passada, foram desacreditados por uma equipa de cibersegurança que acedeu aos sistemas centrais do novo Chrysler e assumiu o controlo total do veículo, apesar de ter um humano sentado no banco do condutor. E com os planos generalizados das nações mais desenvolvidas de um dia virem a aplicar os conhecimentos e avanços na robótica em guerras e armamento, os perigos são cada vez mais reais, dizem os signatários do manifesto. Ou se travam certas aspirações desmedidas, como a aplicação da IA em armas e bombas, ou estamos totalmente condenados.

Pedido "Tal como a maioria dos químicos e biólogos não têm qualquer interesse em construir armas químicas ou biológicas, a maioria dos investigadores de inteligência artificial não têm qualquer interesse em construir armas [com recurso à IA] – nem querem que outros manchem o seu campo de investigação construindo armas dessas”, lê-se na longa carta, ontem apresentada na Conferência Conjunta sobre Inteligência Artificial, a decorrer em Buenos Aires, e que foi primeiro publicada no site do Instituto da Vida Futura (FLI).

O que o grupo de centenas de especialistas pede é um roteiro para proibir e anular as aspirações de um dia termos armas de inteligência artificial, sobretudo considerando que tal levaria ao que, na carta, é definido como futura "corrida ao armamento autónomo”. "As armas autónomas são ideais para tarefas como homicídios, destabilização de nações, subjugação de populações e execuções selváticas de grupos étnicos em particular”, diz o grupo. "Estamos, portanto, em crer que uma corrida ao armamento militar de inteligência artificial não seria benéfica para a humanidade.” É algo cujos riscos já foram, de certa forma, provados quando o programa autónomo de vigilância secreta de cidadãos da Agência de Segurança Nacional (NSA) norte-americana – ironicamente baptizado Skynet, como o supercomputador do futuro na saga "Exterminador Implacável” – identificou erroneamente um jornalista da Al-Jazeera como terrorista a partir de cálculos matemáticos.

Noel Sharkey, especialista em robótica que integra a Campanha para Parar Robôs Assassinos, diz que, no futuro, este tipo de máquinas inteligentes será muito pior do que as representações de ficção científica eternizadas pelo cinema. "Vão parecer-se com tanques, com navios, com caças”, acredita o investigador. "O nosso objectivo é evitar que a morte de alguém seja decidida por máquinas.

Nem só armas, apesar de a carta se referir especificamente a armas autónomas, vários dos seus signatários têm alertado para outros riscos representados por excessos no campo da inteligência artificial. No início deste ano, o fundador da Microsoft, Bill Gates, disse estar "no campo dos que estão preocupados com a superinteligência” durante uma sessão Ask Me Anything da Reddit – semelhante à sessão de perguntas e respostas com o físico Stephen Hawking em curso esta semana na plataforma cibernética.

"Primeiro, as máquinas irão fazer muito do nosso trabalho e não serão superinteligentes”, respondeu Gates a um utilizador da Reddit. "Isso pode ser positivo se houver uma boa gestão. Mas umas décadas depois disso, a inteligência vai ficar suficientemente forte para se tornar uma preocupação. Concordo com Elon Musk [fundador da Tesla e do SpaceX] e vários outros sobre isto, e não entendo como é que as pessoas não estão preocupadas.” Em Março, numa entrevista ao "Australian Financial Review”, o co-fundador da Apple Steve Wozniak ecoou as mesmas preocupações. "Se construirmos estes aparelhos para fazerem tudo por nós, eles acabarão por pensar mais rápido que nós e irão ver-se livres dos humanos lentos para gerirem empresas de forma mais eficiente. Ofuturo é assustador e muito mau para os humanos.”

O que é inteligência artificial?

A Inteligência Artificial, que é citada apenas como IA (ou AI, de artificial intelligence), é um avanço tecnológico que permite que sistemas simulem uma inteligência similar à humana — indo além da programação de ordens específicas para tomar decisões de forma autônoma, baseadas em padrões de enormes bancos de dados.

Algo tão complicado é,  também, um campo de estudo acadêmico — que não começou ontem. Há algumas décadas, se estuda o que se chamou de "agentes inteligentes”, que percebem o seu ambiente, entendem como podem operar e qual a melhor forma.

Credita-se ao professor John McCarthy o uso do termo pela primeira vez, em 1956, numa conferência de especialistas, em Darmouth Colege, chamada "O Eros Electrónico”, que definiu como "a ciência e a engenharia de produzir máquinas inteligentes”.

Assim, pode-se definir inteligência artificial, no grosso modo, como a capacidade das máquinas de pensarem como seres humanos: aprender, perceber e decidir quais caminhos seguir, de forma racional, diante de determinadas situações.

Até então, os computadores precisavam de três grandes pilares para evoluir da computação simples para a actual, de inteligência artificial:

 - Bons modelos de dados para classificar, processar e analisar;

 - Acesso a grande quantidade de dados não processados;

Computação potente com custo acessível para processamento rápido e eficiente.

Com a evolução desses três segmentos, a inteligência artificial tornou-se finalmente possível com a fórmula: big data + computação em nuvem + bons modelos de dados.

Ou seja, a IA aprende como uma criança. Aos poucos, o sistema (a depender do objectivo para o qual ele foi criado) absorve, analisa e organiza os dados de forma a entender e identificar o que são objectos, pessoas, padrões e reacções de todos os tipos.

Como assim, máquinas inteligentes?

Na sua essência, a Inteligência Artificial permite que os sistemas tomem decisões de forma independente, precisa e apoiada em dados digitais. O que, numa visão optimista, multiplica a capacidade racional do ser humano de resolver problemas práticos, simular situações, pensar em respostas ou, de forma mais ampla, potencializa a capacidade de ser inteligente.

Os economistas chamam isso de a quarta revolução industrial, marcada pela convergência de tecnologias digitais, físicas e biológicas — bagunçando as fronteiras das três áreas. E IA faz parte dessa próxima onda de inovação, trazendo grandes mudanças na maneira como pessoas e empresas se relacionam com tecnologia, compartilham dados e tomam decisões.

  Inteligência Artificial é uma "ameaça mais urgente” do que as alterações climáticas

Geoffrey Hinton, pioneiro da inteligência artificial (AI), recentemente, em  entrevista à Reuters, diz ter abandonado a empresa mãe da Google para alertar sobre os riscos da tecnologia para o futuro da humanidade

A IA pode representar uma ameaça "mais urgente" para a humanidade do que as alterações climáticas, defende o pioneiro da IA.

Conhecido como um dos "padrinhos da IA", Geoffrey Hinton anunciou, recentemente, que deixou a Alphabet (GOOGL.O) após uma década na empresa, dizendo que queria alertar sobre os riscos da tecnologia sem que isso afectasse o seu antigo empregador.

O trabalho de Hinton é considerado essencial para o desenvolvimento dos sistemas de IA contemporâneos. Em 1986, foi co-autor de um artigo que foi um marco no desenvolvimento das redes neurais que sustentam a tecnologia de IA e em 2018 recebeu o Prémio Turing, como reconhecimento dos seus avanços na investigação.

"Não quero desvalorizar as alterações climáticas. São, também, um risco enorme. Mas acho que isto pode ser uma ameaça mais urgente", apontou Hinton, que está agora entre um número crescente de líderes de tecnologia que expressam publicamente a preocupação com a possível ameaça representada pela IA para o futuro da humanidade.

A OpenAI, apoiada pela Microsoft, deu início a uma corrida tecnológica em Novembro, quando disponibilizou ao público o chatbot ChatGPT com tecnologia de IA. Este tornou-se de imediato o aplicativo com crescimento mais rápido da história, atingindo 100 milhões de utilizadores mensais em dois meses.

Em Abril, o CEO do Twitter, Elon Musk, juntou-se a milhares de signatários de uma carta aberta a pedir uma pausa de seis meses no desenvolvimento de sistemas mais poderosos do que o recém-lançado GPT-4 da OpenAI. Os signatários incluíram o CEO da Stability AI, Emad Mostaque, investigadores da DeepMind, de propriedade da Alphabet, e outros pioneiros da IA, como Yoshua Bengio e Stuart Russell.

No entanto, embora Hinton partilhe a preocupação dos signatários de que a IA possa ser uma ameaça existencial para a humanidade, discorda da opção de interromper a pesquisa.

"Isso é totalmente irreal", disse à Reuters. "Estou do lado dos que pensam que isso é um risco existencial, e que esse risco está próximo o suficiente para que devêssemos trabalhar muito agora e colocar muitos recursos para descobrir o que fazer a este respeito."

Quais são os tipos de inteligência artificial?

A IA possui 7 classificações que são determinadas por dois pontos: sua capacidade e a sua classificação técnica.

Em relação à sua capacidade, isso está relacionado ao nível de inteligência da IA, ou seja, a sua habilidade em executar funções semelhantes às humanas. E essas habilidades são divididas em quatro:

Máquinas reativas: são as formas mais antigas de inteligência artificial, que não possuem funcionalidade baseada em memória;

Memória limitada: conseguem aprender com base em dados históricos;

Teoria da mente: esse é o próximo nível de sistemas de IA que encontra-se em andamento;

"Autoconsciente”: a IA autoconsciente é uma formulação hipotética, que conseguirá compreender e evocar emoções, necessidades, crenças e, potencialmente, desejos próprios.

Agora, quando o assunto é a classificação técnica da inteligência artificial, devemos nos concentrar em três:

Inteligência artificial estreita (ANI): representa toda a IA existente, em que só pode realizar uma tarefa específica;

Inteligência geral artificial (AGI):  refere-se à capacidade da inteligência artificial geral aprender, perceber, compreender e funcionar completamente da mesma forma que um ser humano;

Superinteligência artificial (ASI): pode replicar a inteligência multifacetada dos seres humanos, possui uma memória maior, analisa dados rapidamente e possui capacidades de tomada de decisão.

Onde podemos encontrar inteligência artificial?

A IA está por todos os lugares, no carro autônomo, no chão de fábrica e no sistema de atendimento dos hospitais. Mas também está na rede social, no seu celular, no antivírus, no buscador de internet.

O Google, por exemplo, é um exemplo de empresa AI-first. Ou seja, todos os seus produtos têm processos de machine learning. Nem se fala então nas assistentes virtuais e nos chatbots. Alexa, Siri e Google Assistance são os principais exemplos de assistência virtual, e os chatbbots, baseados em IA, são, principalmente, responsáveis pelo atendimento de clientes no mercado online.

A IA vai roubar o seu emprego?

O futuro da IA aponta e urge para uma tecnologia cada vez mais transparente, eticamente construída e que faz parte de tarefas do dia a dia, no trabalho ou na nossa vida pessoal, aumentando nossas capacidades cognitivas.

A IA pode tornar o ser humano mais produtivo, liberando profissionais de determinadas tarefas mecânicas e repetitivas para que possam usar o máximo de sua capacidade para criar e inovar em outros setores. Uma mudança no mercado de trabalho foi iniciada e, certamente, isso vai ceifar algumas vagas no futuro.

Mas falando em uma visão otimista, Alessandro Jannuzzi, diretor de engenharia e inovação na Microsoft Brasil, afirma que a companhia assumiu o compromisso de democratizar o acesso à IA. "Estamos buscando na IA os recursos necessários para ajudar a resolver os problemas mais urgentes da nossa sociedade. Nesse sentido, a nossa abordagem é dividida em três pilares: liderar inovações que ampliam a capacidade humana; construir poderosas plataformas que tornam a inovação mais rápida e acessível; e desenvolver uma abordagem confiável que coloque o cliente no controle e proteja seus dados”, explicou.

Vale notar que, no mundo dos negócios, é bom lembrar que se você não está sendo disruptivo no seu setor, certamente alguém está. E a IA pode ser a maior aliada para contribuir com esse tipo de transformação digital que as empresas tanto buscam. Combinada com a capacidade humana, pode impulsionar pessoas a fazerem coisas incríveis.

Comentários

Seja o primeiro a comentar esta notícia!

Comente

Faça login para introduzir o seu comentário.

Login

Reportagem