Inteligência artificial de código aberto “OpenAI”, vendida 1Bi USD

imagem openai - inteligencia artificial, blog escola Budhi

Antes de entrar no tópico do assunto deste artigo, quero dizer que: — enquanto navegamos, se existe ou não existe, ou, se vale ou não a pena, aprender programação!?

As grandes corporações estão fazendo uso da inteligência artificial para mudar as nossas vidas, o nosso cotidiano. Será que estamos “educados, disciplinados” para de “fato” enfrentar, utilizar, compreender uma “inteligência sem fronteiras”?

Uma tradução livre do artigo “How OpenAI Sold its Soul for $1 Billion | by Alberto Romero | OneZero”

A OpenAI foi fundada em 2015 como uma empresa sem fins lucrativos cuja principal preocupação era garantir que a inteligência artificial geral fosse criada com segurança e beneficiasse toda a humanidade de maneira uniforme.

“Como uma organização sem fins lucrativos, nosso objetivo é criar valor para todos, e não para os acionistas.” É mesmo?

www.openai.com

Em 2019, a OpenAI se tornou uma empresa com fins lucrativos chamada OpenAI LP, controlada por uma empresa controladora chamada OpenAI Inc. O resultado foi uma estrutura de \”lucro limitado\” que limitaria o retorno do investimento em 100 vezes a soma original. Se você investisse $ 10 milhões, no máximo receberia $ 1 bilhão.

Poucos meses após a mudança, a Microsoft injetou US $ 1 bilhão. A parceria da OpenAI com a Microsoft foi selada com o objetivo de permitir que esta comercializasse parte da tecnologia, como aconteceu com GPT-3 e Codex.

A OpenAI, uma das forças mais poderosas que conduz a humanidade em direção a um futuro (supostamente) melhor, está agora subjugada pelo dinheiro de que precisa para continuar sua busca. Podemos confiar que eles cumprirão sua promessa e manterão o foco na construção de IA para a melhoria da humanidade?

Logomarca “OpenAI

O dinheiro sempre tem a vantagem

OpenAI era um laboratório de pesquisa de IA. Mas suas ambições estavam simplesmente fora do alcance dos recursos aos quais tinha acesso. O treinamento do GPT-3 custou a eles cerca de US $ 12 milhões . Apenas o treinamento. Onde no mundo eles conseguiriam essa quantia de dinheiro se não de alguém maior que acabaria pedindo algo em troca? Quando perceberam que precisariam de investimento, a Microsoft estava lá esperando para fornecer serviços de computação em nuvem em troca de uma licença para comercializar seus sistemas de maneiras obscuras que não foram divulgadas na época.

Karen Hao, repórter de IA da MIT Technology Review, conduziu uma investigação para responder a algumas perguntas sobre a OpenAI. Em um artigo brilhante, ela expôs as inconsistências da OpenAI em seu discurso. Por que uma empresa cuja base é garantir um futuro melhor para todos decide que “para se manter relevante”, de repente, precisa de enormes somas de dinheiro privado? A mudança de organizações sem fins lucrativos gerou críticas frenéticas na opinião pública e até mesmo dentro da empresa.

Oren Etzioni, diretor do Allen Institute for AI, também recebeu a notícia com ceticismo. “Discordo da noção de que uma organização sem fins lucrativos não pode competir. […] Se maior e melhor financiado fosse sempre melhor, então a IBM ainda seria a número um. ” Caroline Haskins, que costumava escrever para a Vice News, não confia na promessa da OpenAI de permanecer leal à sua missão: “[N] nunca pudemos contar com capitalistas de risco para melhorar a humanidade.”

A OpenAI decidiu colocar ênfase em redes neurais maiores alimentadas por computadores maiores e toneladas de dados. Eles precisavam de dinheiro, muito dinheiro, para continuar nesse caminho. Mas, como diz Etzioni, essa não é a única maneira de obter resultados de ponta em IA. Às vezes, você precisa pensar criativamente sobre novas ideias, em vez de \”colocar mais ferro nas antigas\”.

Como OpenAI se tornou o vilão desta história

GPT-2 e GPT-3, os geradores de linguagem \”perigosos\”

No início de 2019, OpenAI – já uma empresa com fins lucrativos – anunciou GPT-2, um modelo de linguagem poderoso capaz de gerar nível humano Texto:% s. Os pesquisadores qualificaram o GPT-2, um grande salto à frente na época, como perigoso demais para ser liberado. Eles temiam que pudesse ser usado para “espalhar notícias falsas, spam e desinformação”. No entanto, não muito depois, eles decidiram compartilhar o modelo depois de encontrar \”nenhuma evidência forte de uso indevido\”.

Britt Paris, professora da Rutgers University disse que “parecia que a OpenAI estava tentando tirar proveito do pânico em torno da IA”. Muitos viram a emoção em torno do GPT-2 como uma estratégia de publicidade. Eles pensaram que o sistema não era tão poderoso quanto afirmava a OpenAI. Ainda assim, de uma perspectiva de marketing, eles poderiam atrair a atenção da mídia e dar ao GPT-2 o hype que eles queriam em primeiro lugar. A OpenAI negou essas acusações, mas a opinião pública não ficou satisfeita.

Se o GPT-2 não era tão poderoso quanto proclamavam, então por que tentar fazer com que parecesse mais perigoso do que realmente era? Se era realmente tão poderoso, por que liberá-lo totalmente, só porque eles não encontraram \”nenhuma evidência forte de uso indevido?\” De qualquer forma, eles não pareciam estar aderindo aos seus próprios padrões éticos.

Em junho de 2020, o GPT-3 – o sucessor do GPT-2 – foi lançado por meio de uma API. A OpenAI parecia considerar o novo sistema – 100x maior que o GPT-2, mais poderoso e, portanto, intrinsecamente mais perigoso – seguro o suficiente para ser compartilhado com o mundo. Eles estabeleceram uma lista de espera para revisar cada solicitação de acesso, uma por uma, mas ainda assim, eles não tinham meios de controlar para que o sistema era usado eventualmente.

Eles até reconheceram vários problemas que poderiam acontecer se o produto caísse nas mãos erradas. De possíveis aplicativos de uso indevido – incluindo “desinformação, spam, phishing, abuso de processos legais e governamentais, redação de ensaios acadêmicos fraudulentos e pretextos de engenharia social” – a preconceitos – enfatizando gênero, raça e religião.

Eles reconheceram que esses problemas existiam e ainda assim decidiram permitir que os usuários experimentassem o sistema. Por que liberá-lo por meio de uma API em vez de abrir o código-fonte do modelo ?. Bem, a OpenAI disse que uma das razões era “pagar por [suas] pesquisas em andamento de IA, segurança e esforços de política”.

Resumindo: a empresa “responsável” por nos proteger de IAs prejudiciais decidiu permitir que as pessoas usassem um sistema capaz de se envolver em desinformação e preconceitos perigosos para que pudessem pagar por sua custosa manutenção. Não me parece muito “valor para todos”.

Previsivelmente, discussões acaloradas logo surgiram nas redes sociais sobre o dano potencial que o GPT-3 poderia causar. Jerome Pesenti, chefe de IA do Facebook, escreveu um tweet no qual aponta um exemplo:

“Gostaria que a OpenAI tivesse sido mais aberta e menos sensacionalista, apenas abrindo o código-fonte [GPT-2 e GPT-3] para pesquisas, especialmente sobre os aspectos #responsibleAI, embora reconhecendo que nenhum estava pronto para produção ”, disse ele.

Em uma tentativa inocente de aproveitar a exclusividade do GPT-3, Liam Porr fez o sistema escrever um artigo de produtividade que ele compartilharia com seus assinantes sem revelar o truque. O artigo alcançou o primeiro lugar no Hacker News. Se Porr, um único aluno da UC Berkeley, conseguiu enganar a todos com uma peça escrita por IA, o que grupos de pessoas com intenções maliciosas poderiam fazer?

Uma coisa é espalhar notícias falsas, outra coisa muito diferente é espalhar notícias falsas que não podem ser distinguidas com segurança de outros artigos escritos por humanos. E é exatamente disso que o GPT-3 é capaz, também reconhecido – e até mesmo destacado – pelo OpenAI:

“[M] a precisão humana na detecção de artigos mais longos que foram produzidos pelo GPT-3 175B foi um pouco acima do acaso, 52%. Isso indica que, para artigos de notícias com cerca de 500 palavras, o GPT-3 continua a produzir artigos que humanos acham difícil distinguir de artigos de notícias escritos por humanos. ”

Codex e Copilot, infringindo a lei

Este ano, eles fizeram algo semelhante.

Algumas semanas atrás, GitHub, Microsoft e OpenAI lançaram o Copilot, um sistema de IA construído sobre o Codex projetado para ser um programador de par de IA. Deixando de lado a ameaça potencial à força de trabalho, foi fortemente criticado porque o sistema foi treinado cegamente com código aberto de repositórios públicos do GitHub.

O CEO do GitHub, Nat Friedman, compartilhou a notícia na Hacker News, gerando preocupações sobre as implicações legais do uso do Copilot. Um usuário apontou algumas lacunas sem resposta:

“Muitas perguntas:

O código gerado pela IA pertence a mim ou ao GitHub?

Em que licença o código gerado se enquadra?

Se o código gerado se tornar o motivo da violação, quem fica com a culpa ou ação legal? ”

Armin Ronacher, um importante desenvolvedor de código aberto, compartilhou no Twitter um exemplo de Copilot plagiando um pedaço de código protegido por direitos autorais:

Ao que outro usuário respondeu: “Aqui temos evidências diretas de GitHub [Copilot] reproduzindo diretamente um pedaço de código GPL , provando que esta [é] uma ferramenta realmente perigosa para uso em ambientes comerciais. ”
Indo mais fundo, mesmo se o Copilot não copiou o código literalmente, surge uma questão ética: está tudo bem para empresas como GitHub ou OpenAI treinar esses sistemas em código aberto gerado por milhares de desenvolvedores para, então, vender o uso desses sistemas para esses mesmos desenvolvedores?
Para isso, Evelyn Woods, programadora e designer de jogos, diz: “Parece que está rindo da cara do código aberto.”

Devemos depositar nossas esperanças no OpenAI?

Quais são as reais intenções da OpenAI agora? Eles estão tão ligados aos interesses da Microsoft que se esqueceram de seu propósito original para “o aperfeiçoamento da humanidade?” Ou eles realmente pensavam que eram os únicos com as melhores ferramentas e mentes para construir esse caminho, mesmo que isso significasse vender suas almas para uma gigante corporação de tecnologia? Estamos dispostos a permitir que a OpenAI construa o futuro como desejam ou devemos diversificar nossas intenções e, mais importante, separá-las do lucro financeiro?
A OpenAI é uma força líder em direção a formas mais sofisticadas de inteligência artificial, mas existem outras instituições muito capazes, livres de laços monetários, que também estão fazendo um trabalho relevante. Eles podem não gostar de um colchão de dinheiro para se deitarem confortavelmente, e essa pode ser a razão exata pela qual deveríamos estar prestando ainda mais atenção ao seu trabalho.
No final das contas, a principal prioridade das grandes empresas de tecnologia não é a curiosidade científica de construir uma inteligência artificial geral, e tampouco construir o tipo de IA mais seguro, responsável e ético. Sua principal prioridade – que não é ilícita por si só – é ganhar dinheiro. O que pode ser de moralidade duvidosa é que eles fariam o que fosse necessário para fazer isso, mesmo que isso significasse seguir por caminhos obscuros que a maioria de nós evitaria.
Até Elon Musk, que co-fundou a OpenAI, concorda com as críticas:

Alberto – Pensamento final

Dito isso, ainda acredito que os funcionários da OpenAI mantêm sua missão original como principal motivação. Mas não devem esquecer que o fim nem sempre justifica os meios. Fins superiores podem ser prejudicados por esses mesmos meios.

Queremos AGI? Cientificamente falando, a resposta não pode ser \”não\”. A curiosidade científica não tem limites. No entanto, devemos sempre avaliar os perigos potenciais. A fusão nuclear é maravilhosa, mas as bombas de fusão nuclear não são.

Queremos AGI a qualquer custo? Agora, moralmente, a resposta não pode ser \”sim\”. E é aí que devemos colocar nosso foco, porque os problemas urgentes que enfrentaremos devido ao ritmo acelerado com que estamos avançando com essas tecnologias afetarão a todos nós. Cedo ou tarde. E quem só se preocupa com o umbigo, seja OpenAI ou quem quer que seja, terá um grau significativo de responsabilidade nas consequências.
Se você gostou deste artigo, considerar assinar meu boletim informativo semanal gratuito Minds of Tomorrow! Notícias, notícias e insights sobre Inteligência Artificial todas as segundas-feiras!

O que você achou deste artigo?

Entre em contato, clique aqui: iide.com.br/contato, envia a sua opinião (feedback) pra gente!

Webgrafia

https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4