NOTÍCIAS


ChatGPT: 'corrida armamentista' pela inteligência artificial já mudou os rumos da tecnologia - Notícias

[ad_1]

No dia 7, Satya Nadella, presidente da Microsoft, subiu ao palco para apresentar o que foi vendido como uma mudança revolucionária nos produtos da empresa: o navegador Edge e o buscador Bing receberão grandes atualizações para funcionar com um chatbot de inteligência artificial, que chamou a atenção do mundo inteiro no aplicativo ChatGPT.

Segundo o executivo, o uso de IA tornará as buscas muito mais próximas de uma conversa cotidiana. Será possível pedir para o buscador “planejar uma viagem de cinco dias para o México”, em vez de pesquisar cada passo separadamente, como mostrou o exemplo dado pela empresa.

“É um novo dia na pesquisa, é um novo paradigma para a pesquisa, uma inovação rápida está por vir”, disse um entusiasmado Nadella em certo momento.

No mesmo evento Sam Altman, CEO da OpenAI, desenvolvedora do ChatGPT, confirmou que a Microsoft usará tecnologia (chamada GPT-3.5) desenvolvida pela startup para equipar os produtos dela. “Sinto que estou esperando por isso há 20 anos, estou muito feliz por estar aqui”, disse Altman aos participantes.

Internamente, em uma reunião com acionistas pouco antes, a chefe financeira da dona do Windows, Amy Hood, afirmou que o chat da Microsoft está um passo à frente do GPT e usa tecnologia ainda mais avançada.

A jogada da Microsoft foi encarada como uma chance rara de bater o Google onde a empresa é mais forte: buscas e navegadores. Mas, além disso, a inteligência artificial é vista como muito mais — é como o próximo passo no que foi chamado de “corrida armamentista” entre as grandes empresas de tecnologia e potências militares. Do outro lado do globo, a chinesa Baidu anunciou que logo lançará seu próprio chatbot, o que deu tons geopolíticos à disputa.

Tudo aconteceu muito rápido desde que uma versão pública do ChatGPT foi lançada, em novembro passado. Usuários se mostraram encantados e tentaram explorar ao máximo o potencial de esquisitices das respostas do programa, que emula a forma humana de conversação e ainda é capaz de “recordar” respostas anteriores. Uma mostra pode ser vista abaixo.

Ele é capaz de interpretar literatura brasileira?

E de apreciar poemas?

Três semanas depois, o New York Times afirmou que gerentes do Google decretaram “código vermelho” na empresa e classificaram o ChatGPT como uma imensa ameaça ao negócio onde o Google é soberano há mais de 20 anos. Poucos dias de uso mostraram que usuários preferem respostas em uma conversa em vez de uma chuva de links (e montanhas de anúncios) nos resultados de uma pergunta.

Explicações simples e com contexto, algo que o Google busca intensamente nos últimos anos, funcionam com fluidez no aplicativo desenvolvido nos laboratórios da OpenAI.

No início de fevereiro, Bill Gates afirmou que inteligências artificiais do tipo “vão mudar o mundo”, pouco depois que um relatório do banco UBS garantiu que o app do chatbot se tornou o aplicativo que cresceu mais rápido, com 100 milhões de usuários em dois meses — ultrapassando até o fenômeno viral TikTok.

Um dia depois da conferência da Microsoft, o Google lançou às pressas o Bard, seu próprio chatbot. Mas, já no anúncio, o programa fez o que a empresa mais temia: deu uma resposta errada, o que fez as ações da Alphabet despencaram 8%.

O pontapé inicial também fez analistas apostarem que a Microsoft provavelmente é a big tech que mais se beneficiará com a popularidade das IA. Mas, as primeiras interações com o chatbot do Bing, ainda em caráter de textos, mostraram que ele é “mentiroso, triste e assustador”.

O que exatamente é um chatbot?

Mas o que é e como realmente funciona a tecnologia por trás do aplicativo tão popular?

“A inteligência artificial generativa (IA), utilizada pelo ChatGPT, descreve algoritmos que podem ser usados para criar novos conteúdos, incluindo áudio, código, imagens, texto, simulações, vídeos, entre outros. Já o ChatGPT, em si, é um chatbot gratuito que pode gerar uma resposta para quase todas as perguntas possíveis. Ele se diferencia pela qualidade nas respostas”, explica Luciano Mathias, especialista em inovação digital e executivo do hub de criação TRIO, em entrevista ao R7.

O especialista em marketing digital Samuel Pereira completa: “Algumas pessoas até estão dizendo que não é um chatbot, porque ele é muito mais complexo que isso. Ele consulta todas as informações na internet, faz uma combinação gigantesca dos fatos e traz uma resposta muito mais complexa e aprimorada”.

O resultado é uma conversa interminável que será, no mínimo, um bom entretenimento. De um ângulo específico, chatbots com esse nível de capacidade de resposta cumprem nosso sonho secreto de conversar com o Google para obter as respostas que queremos.

Mas as respostas não são exatas e não detalham fontes, o que as tornam similares a conversas de bar que nunca terão suas afirmações verificadas.

Chega a ser irônico o fato de o próprio Google ter desenvolvido boa parte do modelo de redes neurais que turbinam o GPT, e que ganharam atenção mundial quando o engenheiro Blake Lemoine afirmou que os códigos se tornaram conscientes, algo desmentido pouco depois.

Até então, o Google era considerado líder de desenvolvimento de inteligência artificial. Seu sistema de chat LaMDA 2 é considerado extremamente avançado, mas, segundo a empresa, nunca foi lançado ao público por frequentemente dar respostas tóxicas, antiéticas e falsas. O LaMDA é testado de forma limitada, em ambientes controlados, por meio do aplicativo AI Test Kitchen.

A própria OpenAI reconheceu que seu produto não estava imune a perigos do tipo. Em entrevista à Time, a diretora de tecnologia da empresa, Mira Murati, disse que “os desafios” do ChatGPT “são semelhantes aos que vemos com os grandes modelos básicos de linguagem: pode inventar fatos”. Ela também defende a regulação da tecnologia.

A Microsoft enfrentou problemas similares com a Tay, um chatbot de Twitter que, em menos de 24 horas, publicou diversas mensagens racistas e de apologia do nazismo. Como consequência, a empresa foi obrigada a interromper o experimento.

A ousadia da OpenAI, que lutou para lançar uma versão pública de seu chatbot antes de todos, deu muitos frutos. Mas a imprensa norte-americana afirmou que o sucesso rápido do chatbot fez com que a Microsoft se mostrasse disposta a investir mais US$ 10 bilhões no laboratório, após ter investido US$ 4 bilhões. Segundo o site Semafor, o investimento (que não se sabe se já foi finalizado) deixaria a Microsoft com uma participação de 49% na OpenAI.

“As big techs querem o pódio. No caso da Microsoft, há questões tanto de branding, de elevação da marca, quanto de não só concorrer, mas de superar o Google. Qual dos dois você usa quando vai fazer uma busca?”, pergunta Rogério Godoy, chefe de marketing da empresa de consultoria de TI senhasegura.

Analistas ouvidos pelo New York Times afirmaram também que o Google evitou tornar seu buscador uma versão similar ao chatbot simplesmente porque ele elimina os anúncios, que respondem por 80% da receita da empresa. Afinal, se um programa dá a melhor resposta possível (ou, ao menos, está confiante disso), para que alguém clicaria em uma propaganda?

“A solução que a OpenAI apresentou é uma solução que sai do padrão e já está em processo de monetização”, diz Euclides Lourenço Chuma, membro sênior do IEEE (Instituto de Engenheiros Eletricistas e Eletrônicos), mestre em engenharia elétrica e pesquisador na Universidade de Linköping, na Suécia.

Desde o início de fevereiro, a OpenAI lançou uma versão Plus, paga por meio de assinaturas, por US$ 20 — embora Sam Altman já tenha dito que “é um erro confiar nele para qualquer coisa importante agora”. O ChatGPT Plus também está disponível no Brasil.

Devemos nos preocupar com a ascensão da IA?

undefined

A chegada de uma nova tecnologia inevitavelmente leva a debates sobre o futuro do emprego e produtividade, além de impactos sociais mais amplos. A assustadora eficácia do ChatGPT em emular textos escritos por humanos fez muitos analistas de mercado apontarem o dedo para profissões criativas e de atendimento.

Um debate anterior movimentou o mercado de arte, com a chegada do DALL·E 2, um software que cria imagens a partir de comandos de texto, também lançado pela OpenAI. Previsões apontaram que poderia ser o fim da arte digital, enquanto outros acusaram programas do tipo de plágio, por receberem dados de criações anteriores de artistas.

“Áreas onde inteligências artificiais como o ChatGPT podem causar mais impacto são o telemarketing, o setor de educação, onde muitos desafios devem ser superados, pois não acredito que eles [chatbots] devem ser combatidos, mas sim integrados ao desenvolvimento educacional dos jovens. E, claro, ocupações  onde é preciso fazer grandes resumos de informações em textos curtos”, aponta Euclides Chuma.

Rogério Godoy acha que ainda há certo limite para o raio de ação da tecnologia, ao menos por enquanto: “Mas a IA ainda é criada por humanos. Mesmo que um texto produzido pelo bot tenha qualidade gramatical e semântica, o ser humano é o precursor da criatividade, da experiência de vida, da interação social.”

A área de educação foi a primeira impactada. Após alunos criarem textos com o uso de chatbots, acadêmicos começaram a discutir se teria sido cometido plágio. Como resposta, a renomada universidade francesa Sciences Po proibiu o uso de tecnologias do tipo, ao menos em um primeiro momento. Alunos que burlarem a regra podem até ser expulsos da instituição.

A OpenAI respondeu ao problema em 31 de janeiro e anunciou o lançamento de uma ferramenta gratuita para detectar textos criados por IAs. Mas no comunicado à imprensa ficou claro que a questão é, obviamente, mais profunda do que parece.

“Embora seja impossível detectar de forma confiável todo texto escrito por IA, acreditamos que bons classificadores podem fornecer atenuações para alegações falsas de que o texto gerado por IA foi escrito por um humano”, disse um trecho do anúncio, que deixou claro que o classificador “não é totalmente confiável”.

Aliás, ele mal é confiável, uma vez que faz identificações corretas apenas 26% das vezes, e usa o rótulo “provavelmente escrito por IA”. Em 9% dos casos o programa erra totalmente, e rotula um texto humano como escrito por IA.

Segundo o laboratório, o programa se torna melhor com textos maiores, o que foi visto de forma duvidosa nos testes apresentados em redes sociais.

No Twitter, o jornalista de tecnologia Sam Biddle mostrou como a ferramenta classificou a Declaração de Independência dos Estados Unidos como um texto “provavelmente escrito por IA”.

Resultados do tipo mostram que estamos entrando ainda mais profundamente em uma era de incerteza sobre quase tudo que é publicado, onde nem as máquinas conseguem distinguir o que de fato foi produzido por elas. Com bots do tipo, notícias falsas podem ser geradas e distribuídas de forma muito mais rápida.

“Sim, notícias falsas podem ser um problema. Como as respostas são geradas a partir de dados, o ChatGPT não consegue identificar a veracidade das informações. Por isso, usuários precisam aprender a questionar e identificar a confiabilidade das fontes, adotando uma postura crítica no consumo do conteúdo automatizado”, explica o professor Rica Mello, especialista em gestão de negócios e economia.

Mesmo no jornalismo, experimentos do tipo foram feitos sem muito alarde e com resultados bastante duvidosos. O famoso site de tecnologia norte-americano CNET publicou, por meses, artigos usando inteligência artificial. Os donos da publicação (o fundo de capital privado Red Ventures) manteve os leitores e até muitos dos próprios funcionários no escuro sobre o fato.

“Não fizemos isso em segredo. Fizemos isso silenciosamente”, disse a editora-chefe Connie Guglielmo, em uma chamada com os funcionários no dia 20, em que a direção do site anunciou que interromperia “por enquanto” a publicação com IAs.

Em um texto com o balanço da experiência, publicado no dia 25, Guglielmo afirmou que uma revisão interna feita por humanos encontrou erros em 41 das 77 matérias escritas por IA. Ainda assim, ela defendeu o uso de programas do tipo.

Um caso ainda mais preocupante envolveu o site Men’s Journal, que publicou guias fitness e de saúde gerados por IA que continham dicas que foram consideradas “imprecisas e falsas”. O primeiro texto publicado pela parceria da empresa com ferramentas de IA, intitulado “O que todos os homens devem saber sobre testosterona baixa”, continha 18 erros, segundo  Bradley Anawalt, chefe de medicina do Centro Médico da Universidade de Washington, entrevistado pelo site Futurism.

No fim de janeiro foi a vez do BuzzFeed, outrora considerado o site de mídia do futuro e hoje em luta com crises financeiras, anunciar que usaria inteligência artificial para “aprimorar e personalizar” seu conteúdo, especialmente testes e os famosos quizzes.

Ainda que a tal revolução dos chatbots pareça ter começado, uma das criadoras da ferramenta não parece saber muito bem que tipo de problema a tecnologia resolve. Em resposta à Time, Mira Murati demonstrou incerteza sobre a questão..

“No momento, estamos no estágio de revisão da pesquisa, então não quero falar com muita confiança sobre os problemas que está resolvendo. Mas acho que podemos ver que ele [o ChatGPT] tem o potencial de realmente revolucionar a forma como aprendemos”, disse a diretora e desenvolvedora, acrescentando que com “ferramentas como o ChatGPT você pode conversar sem parar”, com um programa que pode te entender de forma personalizada.

As incertezas e dificuldades enfrentadas pela tecnologia não desmotivam os especialistas, que acreditam no potencial futuro da ferramenta.

“Em contrapartida, é uma grande oportunidade de uma maior geração de riqueza para a humanidade como um todo, assim como a internet foi um potencializador, assim como o carro foi um potencializador”, diz Samuel Pereira.

Passado (e presente) polêmico

A OpenAI foi fundada como uma empresa sem fins lucrativos em dezembro de 2015, com US$ 1 bilhão de fundo para o empreendimento. Entre seus fundadores estavam o atual CEO Sam Altman, Jessica Livingston, a Amazon Web Services… e a dupla Peter Thiel e Elon Musk.

Thiel é famoso por ser cofundador do PayPal e também fundador da Palantir Technologies, um gigante da inteligência artificial conhecido principalmente por analisar quantidades massivas de dados para agências de inteligência e forças militares dos Estados Unidos.

Seu feito mais divulgado foi ter ajudado o Pentágono e a CIA a matar Osama bin Laden, em 2011. Sete anos depois também a Palantir foi acusada de ajudar a britânica Cambridge Analytica a obter e segmentar informações sobre cidadãos dos Estados Unidos, no escãndalo das eleições presidenciais de 2016 do país.

Desde 2014, a empresa é responsável por desenvolver softwares para a ICE (a agência de Imigração e Alfândega dos EUA). Declarações oficiais de Thiel revelam que os programas ajudam a prender grupos criminosos, mas documentos vazados pela mídia norte-americana mostram que os softwares são “críticos” para rastrear e deportar imigrantes no país.

Enquanto Peter Thiel é um empresário reservado, Elon Musk é fanfarrão. Tornou-se o homem mais rico do mundo graças ao sucesso meteórico da montadora de carros elétricos Tesla, mas atravessa um péssimo momento após decidir comprar o Twitter por um preço considerado caro demais. Sob sua gestão, a rede social demitiu em massa, parou de pagar o aluguel de prédios e chegou a mudar o algoritmo apenas para mostrar os tuítes do próprio Musk para todos os usuários.

LEIA TAMBÉM: Difamação e suspeita de fraude: relembre as maiores polêmicas da carreira de Elon Musk

Musk abandonou o conselho da empresa ao citar um “potencial conflito futuro de interesses”, uma vez que a Tesla também desenvolve IA para pilotar os veículos da empresa — que hoje é investigado pelo governo dos EUA.

Recentemente, reiterou como considera a IA um sério risco que não é encarado como deveria.

“Um dos maiores riscos para o futuro da civilização é a IA”, afirmou o bilionário aos participantes do World Government Summit, em Dubai, na quarta-feira (15). “Acho que precisamos regular a segurança da IA, francamente. Na verdade, acho que é um risco maior para a sociedade do que carros, aviões ou remédios”, completou Musk.

Não é a primeira vez que Elon alerta sobre a ameaça representada pela inteligência artificial. Em 2018, durante o evento South by Southwest, chegou a dizer que programas do tipo podem ser “muito mais perigosos que armas nucleares”.

Na época da saída de Musk, a OpenAI começou uma transição para ter fins lucrativos, o que aproxima o laboratório de empresas do Vale do Silício e seus maiores impulsionadores, os fundos de capital de risco.

Além disso, a empresa se torna competitiva para atrair grandes desenvolvedores ao ser capaz de oferecer opções de ações junto com contratos de trabalho. A mudança também passou a permitir que a empresa legalmente ofereça licenças pagas de seus programas.

Em dezembro, a Reuters revelou que a OpenAI espera receber US$ 200 milhões em receita já em 2023 e US$ 1 bilhão até 2024. Recentemente, ela foi avaliada em US$ 20 bilhões.

A aproximação com fundos de capital de risco e a chegada de fartos investimentos de big techs provavelmente farão a OpenAI ficar muito mais parecida com suas colegas californianas, em uma época em que tais corporações enfrentam pesadas crises de identidade — a Meta é frequentemente acusada de invadir a privacidade de seus usuários, enquanto o Google enfrenta múltiplos processos por monopólio.

Em certos aspectos, já é bem próxima, ao imitar o Facebook e contratar trabalhadores terceirizados de países do sul global para fazer funções indesejadas e traumáticas.

Uma matéria da Time revelou que a OpenIA contratou a Sama — uma companhia de São Francisco que emprega trabalhadores com salários baixos no Quênia, Uganda e Índia — para lidar com as partes mais tóxicas do falatório de seu programa.

Em suas diversas fases de testes, o ChatGPT demonstrou uma vasta capacidade de encadear frases e parecer refletir antes de responder. Mas também se comportou como um membro do 4chan e fazer diversos comentários racistas, sexistas, homofóbicos. A culpa é da própria internet, uma vez que as redes neurais foram treinadas com bilhões e bilhões de palavras e frases da web, onde os ânimos frequentemente ficam inflamados.

Retirar tais trechos e frases manualmente levaria um tempo altíssimo e indeterminado, e aí entra em cena um exército de trabalhadores terceirizados para remover os discursos de ódio.

Em novembro de 2021, a OpenAI começou a enviar milhares de exemplos de discurso criminoso e tóxico para esses funcionários, que alimentariam um detector que impediria que a IA recebesse tais discursos futuramente, bem como não os incluiria em respostas ao público.

Segundo a Time, alguns desses exemplos incluíam “assassinato, suicídio, tortura”, entre outros crimes ainda mais horrendos. O salário para lidar com esse tipo de conteúdo é de US$ 1,32 a US$ 2 por hora, dependendo da produtividade e do tempo de carreira na empresa.

O Facebook utilizou os serviços da mesma Sama — e de empresas norte-americanas, como a Cognizant— e conseguiu, com sucesso, limpar o feed de conteúdos nocivos. Mas para isso deixou um rastro de trauma em diversos funcionários terceirizados, muitos deles diagnosticados com transtorno de estresse pós-traumático.

Em fevereiro de 2022, quando a OpenAI começou a pedir à Sama que coletasse imagens nocivas (inclusive várias cuja posse é crime nos Estados Unidos e na África), a relação entre as duas empresas chegou ao fim.

Futuro agitado

Com poucos meses de lançamento, é possível dizer que os chatbots já alteraram o curso do mercado de tecnologia. Mas isso será duradouro? Como quase tudo que envolve o setor, é difícil prever com alguma precisão, mas é possível captar alguns sinais.

“O ChatGPT é uma novidade agora. Pode acelerar muito, pode crescer muito, pode esfriar daqui a algum tempo. Tudo que a gente falar que vai acontecer daqui a seis meses, um ano, será mera especulação, assim como foram as especulações sobre NFT, criptomoedas, mas que já são realidade. Mas o fato é que vai mudar muita coisa daqui para a frente”, especula Samuel Pereira, especializado em negócios digitais.

“Toda tecnologia leva um tempo para obter capilaridade e produzir efeitos na sociedade. Essas inovações enfrentam desafios e certos problemas tecnológicos devem ser superados para chegarem ao público. O ChatGPT é incrível, mas as respostas dadas por ele são superficiais. Vai melhorar, mas esse é um caso de ‘expectativa versus realidade’, completa Euclides Chuma, pesquisador de telecomunicações.

Luciano Mathias concorda, mas descreve um futuro em que a IA pode trabalhar em conjunto com outros duas apostas quentes do setor que ainda não decolaram: metaverso e os blockchains.

“IA está com um hype gigantesco e muita atenção, e eu prefiro esperar que essa fase passe. Mas que IA será um pilar para a construção de um metaverso aberto e interoperável da Web3, isso eu não tenho a menor dúvida”, especula o executivo de criação.

LEIA ABAIXO: Vale da estranheza: fotos realistas geradas por inteligência artificial perturbam redes sociais


[ad_2]
Fonte: G1


17/02/2023 – Web Rádio TOP

COMPARTILHE

@WEBRADIOTOPWM

(14) 98134-9663

[email protected]
Copyright © Web Rádio TOP – WMVOZ