Olá, eu sou o António Lopes. Bem vindos a mais uma edição da newsletter Um sobre Zero.
Um apontamento de humor
Gregory-MS no Público
Pois é, a propósito do projeto Gregory-MS, eu, o Bruno e a Margarida fomos entrevistados pelo Público. A notícia está disponível aqui, mas é só para assinantes. Porém, se prometerem não contar nada ao Público (🤫), um clipping da notícia está disponível aqui.
Aqui fica a foto da equipa para a posteridade:
E leiam o artigo todo. A Teresa Serafim fez um excelente trabalho em captar não só os detalhes do projeto como também todo o contexto da história que está por trás.
Sam Altman pede regulamentação da IA
Sam Altman, o CEO da OpenAI, foi a uma audição no Congresso Americano para pedir regulamentação para a Inteligência Artificial. Sim, é estranho. Normalmente, os CEOS de Big Tech vão ao Congresso Americano para se defenderem da regulamentação, não para a pedir, portanto eu percebo a vossa estranheza.
Eu não sei ao certo o que o levou a fazer isto, porque as motivações podem ser muitas (e há de facto mais gente que percebe do assunto a pedir regulamentação da IA), mas vou expor aqui algumas e deixo vocês escolherem a que acham mais provável:
A visão benevolente - O Sam Altman está genuinamente preocupado com o impacto que o desenvolvimento da Inteligência Artificial poderá ter na sociedade e decide alertar o Congresso para que possam atuar no sentido de proteger os cidadãos;
A visão “teoria da conspiração” - O Sam Altman, ao testemunhar os primeiros testes do GPT-5 ou do GPT-5.718-turbo-charged-mega-rifixe, ficou de tal forma assustado que sente que tem de avisar o Congresso, para ver se ainda é possível salvar a humanidade;
A visão monopolista - Agora que a OpenAI cimentou a sua posição no mercado da inteligência artificial generativa, mesmo que qualquer regulamentação exija que a OpenAI tenha de andar a ultrapassar obstáculos e burocracias, essa regulamentação vai prejudicar ainda mais os concorrentes que hão-de vir (ou não);
A visão burocrática - O Sam Altman foi ao Congresso pedir a regulamentação porque sabe que aqueles políticos vão ficar 5 anos a discutir uma proposta de lei e que vão acabar por fazer algo que não vai nem fazer cócegas à OpenAI por essa altura… e ele fica bem na figura porque… “Eu pedi, eles é que não fizeram. Não me culpem!”
E como dizia a Vera Roquette nos anos 80: “Agora, escolha!”
—
Independentemente da motivação do Sam Altman, a verdade é que ele parecia muito bem preparado. Uma das minhas partes favoritas (não vi tudo, mas vi uns highlights) foi quando ele respondeu de forma simples e clara quais as 3 coisas que ele implementaria já, se ele tivesse a autoridade para isso. Aqui está a resposta dele:
https://www.youtube.com/live/fP5YdyjTfG0?feature=share&t=5904
Para os mais preguiçosos que não se querem dar ao trabalho de ir ver o vídeo, aqui fica o resumo das 3 medidas que ele sugeriu:
Criar uma nova agência para licenciar e regular modelos de IA (foi o que eu disse aqui);
Criar padrões de segurança para modelos de IA que identifiquem e mitiguem capacidades perigosas;
Exigir auditorias de especialistas independentes para garantir a conformidade com os padrões de segurança.
E a parte mais gira foi a que veio logo a seguir, em que o Senador, claramente satisfeito (e diria até enamorado) com a resposta dele, lhe pergunta se ele estaria disposto a assumir esse papel na definição de regras ou de condução da tal agência regulamentadora de IA, ao que ele responde:
“I love my current job”
Não percam os próximos episódios, porque nós… também não!
Notícias de IA
Cientistas na Universidade do Texas, nos EUA, conseguiram treinar um modelo de IA que é capaz de interpretar imagens do cérebro resultantes de ressonâncias magnéticas enquanto essa pessoa está a ouvir certas frases e “traduzir” essas imagens para o texto das frases ouvidas com uma precisão de 50%. É certo que 50% não é grande coisa no que toca a um nível de precisão, mas só o facto de ser possível de alguma forma relacionar imagens de atividade cerebral com palavras é extraordinário. E pode ser muito importante para ajudar na comunicação de pessoas com limitações físicas severas (que as impedem de ter o mínimo de comunicação com outras pessoas) mas cuja atividade cerebral é perfeitamente normal.
O TikTok está a desenvolver formas dos criadores marcarem os seus vídeos como tendo sido feitos com IA. Esta medida surge numa altura em que cada vez mais pessoas utilizam vídeos gerados por IA para se expressarem de forma criativa, o que tem suscitado preocupações em matéria de direitos de autor e desinformação. É claro que quem tem intenção de “desinformar” não tem interesse nenhum em marcar um vídeo como sendo artificialmente gerado, mas aí arrisca ser detetado e ter o vídeo removido ou a conta banida.
Geoffrey Hinton, uma figura bem conhecida do mundo da investigação em Inteligência Artificial (em particular, na área das Redes Neuronais), decidiu agora manifestar a sua posição de preocupação em relação ao futuro da IA. Esta mudança de posição, que coincidiu com a sua saída da Google (onde trabalhou na última década para ajudar exatamente no desenvolvimento de tecnologias de IA), vem a propósito dos avanços que se têm visto nos últimos tempos e pelo facto de não haver uma aparente vontade de limitar os efeitos dos mesmos na sociedade. Ele sempre elogiou a Google por se mostrar responsável na forma como desenvolvia este tipo de tecnologias, mas agora que a empresa está a ser forçada a “ir a jogo” por causa da concorrência feroz da OpenAI e Microsoft, esse nível de responsabilidade não parece estar ao mesmo nível (na sua opinião) e, como tal, Geoffrey Hinton optou por agora ir para o outro lado da bancada e alertar para os perigos deste tipo de tecnologias.
A conferência anual I/O do Google aconteceu em Mountain View, Califórnia e as novidades incluem (entre outras coisas) um novo modelo de linguagem PaLM 2, ferramentas de escrita de IA para o Gmail, a remoção da lista de espera para o Bard e IA generativa na pesquisa. Parece que a Google acordou para esta corrida.
Já era esperado, mas agora há provas: o tráfego no conhecido site StackOverflow - um site dedicado a perguntas e respostas sobre (principalmente) programação - desceu 14% no mês de março e a “culpa” parece ser das novas ferramentas baseadas em LLMs que permitem que os programadores não precisem de consultar estes sites para fazer perguntas simples sobre programação que podem ser perfeitamente respondidas por ferramentas como o ChatGPT ou o Github Copilot. Adorava ter a capacidade de ter um projeto que analisasse a qualidade geral do código gerado antes e depois da introdução destas ferramentas, só para perceber se está a melhorar ou a piorar.
Outras Notícias
Jack Dorsey - o co-fundador e ex-CEO do Twitter - vem agora criticar o Elon Musk e a sua gestão desastrosa desde que este comprou o Twitter. Há um ano, ele dizia exatamente o contrário. Em notícias completamente não-relacionadas, Jack Dorsey está a abrir aos poucos (apenas com convites) a rede social que ajudou a fundar e que é praticamente um substituto do Twitter, a BlueSky.
Se há assim um nome de utilizador no Twitter que vocês gostam e que parece estar ao abandono, uma das medidas que o Elon Musk pretende implementar num futuro próximo é o de limpar contas no Twitter que já não estejam ativas há vários anos, libertando-se assim o nome de utilizador. Estou para ver como é que vão resolver o problema das contas de malta morta (que não tem WiFi no Além para se ligar ao Twitter).
E por falar em Twitter, o Elon Musk lá conseguiu passar a bola de CEO para outra pessoa: Linda Yaccarino. É claramente uma contratação para apostar na vertente de anúncios na plataforma, uma vez que o modelo de subscrição (Twitter Blue) não tem mostrado os melhores resultados. Mas tendo em conta que o Elon Musk pretende manter-se à frente da vertente tecnológica da empresa, não me parece que a nova CEO vá conseguir domar esse bicho. Boa sorte.
Uma trend viral no TikTok que explica como é fácil explorar uma falha em certas marcas de carros (em particular Hyundai e Kia) causou um aumento considerável de roubos destes carros nos EUA. Em Nova-Iorque, a polícia decidiu combater esta tendência com Airtags fornecidos gratuitamente a donos de carros destas marcas, na esperança de assim conseguirem detetar os roubos e apanhar os criminosos em flagrante delito.
Quando o fundador da Oculus, uma das primeiras empresas a desenvolver óculos de realidade virtual (VR) de consumo geral, afirma que os óculos de VR da Apple “são mesmo bons”… isto promete para o evento da Apple no início de Junho. No entanto, há quem dentro da própria Apple não acredite ainda muito no produto. Portanto, vamos mesmo ter de esperar pelo início da WWDC para podermos tirar as nossas próprias conclusões. Eu continuo muito céptico no que se pode inovar na área de VR. Estou muito mais interessado em avanços na realidade aumentada (AR) e coisas deste género.
Recomendações de leituras
Money Stuff - Is ChatGPT securities fraud?
Este artigo do Matt Levine (que tem uma excelente newsletter sobre temas financeiros) faz muitas perguntas interessantes sobre a forma como os LLMs podem ser usados em contextos financeiros e o impacto que terão em investimentos e ações jurídicas que resultam desses investimentos.
Recomendações de podcasts
Lex Fridman Podcast - Sam Altman
Se tiverem 2 horas e meia da vossa vida para dispensar, esta conversa com o CEO da OpenAI, Sam Altman, toca em pontos muito interessantes sobre os avanços da OpenAI com as várias versões do GPT, os perigos que daí advêm, o potencial e a caminhada para inteligência artificial generalizada. O Lex Fridman é um bocado bajulador com os convidados, o que faz com que nem sempre seja capaz de fazer o contraditório necessário face ao que o convidado está a dizer, mas tem um talento interessante em conduzir o convidado a falar de tudo e mais alguma coisa.
Recomendações de Links
Pandas-AI - Esta biblioteca Python permite fazer “perguntas a dados” (no formato de pandas dataframes)
PrivateGPT - se se preocupam com a privacidade dos dados que partilham com os LLMs mas querem na mesma trabalhar com este tipo de tecnologia para trabalhar com os documentos, esta é uma possível abordagem.
Uma competição hilariante para ver quem consegue criar o pior interface de todos os tempos
Recomendações de Artigos Científicos
ArXiv - Large Language Model Programs: Mais uma amostra de como juntar LLMs com outro tipo de algoritmos pode trazer um aumento na performance, e neste caso, sem qualquer tipo de treino adicional do modelo.
Nota final
Eu sei que isto por aqui tem estado um pouco silencioso, mas não tenho tido muito tempo. Fui convidado para dar uma palestra, e também para escrever um artigo para um jornal. São coisas que dão algum trabalho (para além do trabalho já habitual e da vida pessoal) e não me deixam tempo para muito mais.
Até à próxima!
António Lopes