Elon Musk pede cautela com a IA à medida que o desenvolvimento avança

IA

Quais são as possíveis consequências que alguns desenvolvedores e cientistas tecnológicos temem da IA

A inteligência artificial (IA) permite que chatbots como o ChatGPT, Bing da Microsoft e Bard do Google possam realizar conversas humanas, escrever ensaios sobre vários tópicos e até mesmo criar código de computador. No entanto, o desenvolvimento de chatbots mais poderosos levou a uma corrida pela liderança na indústria de tecnologia, apesar das críticas sobre a capacidade dessas ferramentas de espalhar desinformação e fornecer informações incorretas.

Uma carta aberta assinada por mais de 1.000 líderes e pesquisadores de tecnologia, incluindo Elon Musk, pediu uma pausa no desenvolvimento de sistemas de IA mais poderosos do que o GPT-4. A carta apelou para a introdução de protocolos de segurança compartilhados para sistemas de IA antes que o desenvolvimento continue.

A carta afirma que o desenvolvimento de sistemas de IA poderosos deve ocorrer apenas quando houver confiança de que seus efeitos serão positivos e seus riscos serão administráveis.

Conforme diz na carta:

A humanidade pode desfrutar de um futuro próspero com IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um “verão de IA” no qual colhemos os frutos, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar.

Sam Altman, executivo-chefe da OpenAI, não assinou a carta.

Gary F. Marcus, cientista, autor e empresário norte-americano que é professor do Departamento de Psicologia da New York University e foi fundador e CEO da Geometric Intelligence, e outros acham difícil persuadir a comunidade de tecnologia mais ampla a concordar com uma moratória. No entanto, uma ação rápida do governo é improvável, pois os legisladores pouco fizeram para regular a inteligência artificial. Por outro lado, os formuladores de políticas da União Europeia propuseram uma lei em 2021 para regular tecnologias prejudiciais de IA, exigindo que as empresas conduzissem avaliações de risco para determinar seu impacto na saúde, segurança e direitos individuais.

A expectativa é que a proposta de lei seja aprovada ainda este ano pelos politicos dos EUA, mas, conforme já divulgado anteriormente no The New York Times pelo congressista, Jay Obernolte,os políticos americanos têm pouco conhecimento de tecnologia.

GPT-4 é uma rede neural, que é um tipo de sistema matemático que aprende habilidades analisando dados. Essa tecnologia é utilizada por assistentes digitais como Siri e Alexa para reconhecer comandos falados e por carros autônomos para identificar pedestres.

A partir de 2018, empresas como Google e OpenAI começaram a construir grandes modelos de linguagem (LLMs) que aprendem com grandes quantidades de texto digital, incluindo livros, artigos da Wikipédia, registros de bate-papo e outras informações selecionadas da Internet. Esses LLMs aprendem a gerar texto por conta própria, incluindo tweets, ensaios e até programas de computador, identificando bilhões de padrões no texto. Com o tempo, a OpenAI e outras empresas construíram LLMs que aprendem com cada vez mais dados.

Apesar de melhorar suas habilidades, sistemas de IA como o GPT-4 ainda cometem erros e “alucinações”, gerando informações falsas ou inventadas sem aviso prévio. Isso levanta preocupações de que esses sistemas possam espalhar desinformação e até mesmo serem usados ​​para manipular o comportamento online das pessoas.

Antes do lançamento do GPT-4, a OpenAI pediu a pesquisadores externos para testar seus potenciais usos perigosos. Eles descobriram que o sistema poderia ser manipulado para sugerir compras ilegais de armas de fogo, fornecer instruções sobre a produção de substâncias perigosas e criar postagens no Facebook que iriam contra leis e normas.

A carta foi conduzida pelo Future of Life Institute, uma organização dedicada à pesquisa de riscos existenciais para a humanidade que há muito alerta sobre os perigos da inteligência artificial. Mas foi assinado por uma grande variedade de pessoas da indústria e da academia, até o momento da edição deste artigo, a carta já havia conseguido 2028 assinaturas.

Enquanto alguns signatários da carta expressam preocupações sobre os riscos de longo prazo da IA para a humanidade, outros, como o Sr. Marcus, estão mais preocupados com os perigos imediatos, como a disseminação de desinformação e o risco de as pessoas confiarem demais em sistemas de IA para aconselhamento médico e emocional.

A carta “mostra quantas pessoas estão profundamente preocupadas com o que está acontecendo”, disse Marcus, que assinou a carta. Ele acredita que a carta será um ponto de virada. “Acho que é um momento realmente importante na história da IA ​​– e talvez da humanidade”, disse ele.

Ele reconheceu, no entanto, que aqueles que assinaram a carta podem achar difícil persuadir a comunidade mais ampla de empresas e pesquisadores a estabelecer uma moratória. “A carta não é perfeita”, disse ele. “Mas o espírito está exatamente certo.”

Foto de Washington Leite
Foto de Washington Leite O autor:

Formado em Administração de Empresas, sou entusiasta da tecnologia e fascinado pelo mundo das criptomoedas, me aventuro no mundo do trade, sendo um eterno aluno. Bitcoin: The money of the future