Olá, eu sou o António Lopes. Bem vindos a mais uma edição da newsletter Um sobre Zero.
Um apontamento de humor
OpenAI pós-novela
Após a descrição que fiz da novela OpenAI na última edição da newsletter Um sobre Zero, achei que íamos ter uma resolução relativamente calma da história. Mas não, parece que estávamos apenas no início.
Eis o que aconteceu depois disso:
Satya Nadella, CEO da Microsoft, anuncia que Sam Altman e Greg Brockman vão desempenhar papéis de liderança na Microsoft num novo grupo de investigação especialmente dedicado a trabalhar com IA (sem muitos detalhes);
Mira Murati, CTO da OpenAI e CEO-interina apontada pelo Board, após ter anunciado publicamente o seu apoio a Sam Altman e Greg Brockman, é substituída por Emmet Shear (ex-CEO da Twitch), o novo CEO-interino anunciado pelo Board da OpenAI;
Entretanto, a grande maioria dos funcionários da OpenAI anunciam também publicamente o seu apoio pelos colegas que foram despedidos e decidem manifestar que também sairão para a Microsoft se não houver acordo para que Sam Altman volte como CEO da empresa (incluindo Mira Murati e Ilya Suskever, que entretanto mostrou estar arrependido pelo seu papel desempenhado durante a parte inicial da novela);
Isto era sinal de que o regresso de Sam Altman para a OpenAI estava iminente e tal provou-se real pouco depois, quando foi anunciado que efetivamente Sam Altman voltava a ser o CEO da OpenAI.
E por agora (à data da escrita da newsletter e no primeiro aniversário do ChatGPT) parece que este ainda é o caso: Sam Altman (e o resto da malta que saiu) está de volta à OpenAI e mantém-se a missão (como Altman se farta de referir na sua carta aos funcionários da OpenAI - que mais parece um discurso dos óscares, tal é o rol de agradecimentos).
Ou será que se mantém a missão?
A missão da empresa está bem explícita no seu site:
OpenAI’s mission is to ensure that artificial general intelligence (AGI)—by which we mean highly autonomous systems that outperform humans at most economically valuable work—benefits all of humanity. We will attempt to directly build safe and beneficial AGI, but will also consider our mission fulfilled if our work aids others to achieve this outcome.
Esta é uma missão que era completamente assumida pelo grupo que anteriormente compunha o Board da OpenAI.
O novo grupo - que é agora constituído por Bret Taylor (ex-co-CEO da Salesforce), Larry Summers (ex-Presidente da Harvard University), Adam D’Angelo (o único membro anterior do Board) e um representante da Microsoft (embora sem poder de votação) - para além de ter perdido completamente a diversidade (antes tinham duas mulheres, agora são só homens brancos, não fica muito bem), pode não estar totalmente alinhado com esta missão.
Se efetivamente a razão por detrás do despedimento inicial de Sam Altman foi um desalinhamento entre a interpretação que o Board faz da missão da empresa e aquilo que Sam Altman considerava (e considera) ter de ser o caminho a seguir, então é fácil argumentar que agora Altman está numa posição muito mais vantajosa para moldar o futuro da empresa completamente à sua imagem.
Sam Altman sempre teve a perspetiva de que a OpenAI deve ser o veículo que os leva à Inteligência Artificial Generalizada (AGI em inglês), e quanto mais rápido melhor (e para isso, convém garantir que a legislação funciona a seu favor). Mas ao mesmo tempo, ele também compreende que a empresa tem de tentar ser sustentável nesse objetivo. E essa sustentabilidade vem do lançamento de produtos comerciais (como o acesso aos seus modelos e produtos GPT), utilizados por milhões de pessoas, que permitem canalizar algum desse rendimento para o financiamento das iniciativas de investigação.
O anterior grupo que compunha o Board apostava numa abordagem mais cautelosa, que tomasse as precauções necessárias em cada fase de treino, desenvolvimento e comercialização destes produtos. Para eles, era importante garantir a existência dos controlos necessários (incluindo legislação) para que, quando chegasse o momento em que a Inteligência Artificial Generalizada realmente aparecesse, a sociedade pudesse usá-la em segurança.
O novo Board ainda não deixou clara a sua posição em relação à missão-base da OpenAI, portanto neste momento ainda não sabemos ao certo o que este novo Board significará para o rumo da empresa. Mas tendo em conta que tudo isto resultou de um triunfante retorno de Sam Altman à empresa, cujas táticas de negociação (e o poderoso apoio do CEO da Microsoft) influenciaram imenso a escolha dos novos membros do grupo, eu diria que Altman tem agora maior controlo sobre o futuro da empresa.
Uma empresa como a OpenAI, tendo em conta o impacto que poderá ter na sociedade, precisa de ter alguém a fazer as perguntas desconfortáveis (em ultima linha, ao CEO) sobre o âmbito, a aplicação e (principalmente) a segurança da investigação que é feita lá dentro. E se as respostas não forem boas, o despedimento do CEO tem de ser uma das hipóteses em cima da mesa. Supostamente, esse é o Board.
Mas como agora se viu, não só o despedimento não teve o efeito desejado (o que provou que o Board anterior não tinha realmente poder e muito provavelmente, este novo também não), como não sabemos ao certo qual é a posição atual do novo Board sobre a forma como conduzir os avanços da empresa. Assumindo que o novo Board está mais alinhado com a visão de Sam Altman, fica então a pergunta para a história futura: será que este é o momento que define aquilo que será o caminho daqui para a frente na procura pela verdadeira inteligência artificial generalizada?
Q*: a nova coqueluche da OpenAI
Durante esta semana, e ainda no contexto desta novela, foi noticiado que, antes de Sam Altman ter sido despedido, um conjunto de investigadores dentro da OpenAI enviou uma carta ao Board a manifestarem a sua preocupação com um avanço recente no desenvolvimento de um protótipo que poderia ter consequências sérias para a humanidade.
Como seria de esperar, esta notícia abriu toda uma discussão sobre se este foi o gatilho no desentendimento entre Altman e o Board que culminou no seu despedimento. Se foi ou não, não sei. Nem sei se vamos saber tão cedo, dado que Sam Altman continua a dizer que não explica porque foi despedido, mas continua a dizer que não esteve relacionado com “AI safety”.
Seja como for, a controvérsia estava instalada e agora o que a malta quer saber é: mas o que é então este avanço, denominado de Q* (lê-se Q-star), que aparentemente assustou os investigadores da OpenAI?
A única coisa que se sabe sobre o Q* é que é capaz de “fazer matemática ao nível do ensino básico”. Isto pode parecer muito simples e até já estou a imaginar-vos a dizer: “Então mas o ChatGPT também consegue fazer matemática ao nível do ensino básico”. Não, o ChatGPT consegue completar texto ao ponto de convencer que consegue realizar operações matemáticas de nível de ensino básico. Mas o ChatGPT não tem qualquer noção do que está a fazer quando apresenta esses resultados.
O que está subjacente a esta descrição do Q*, e que vai além do que o ChatGPT consegue fazer, é que alegadamente este novo protótipo consegue desenvolver o raciocínio necessário para efetivamente perceber o que está a fazer. E que se assim for, está aberto o caminho (ainda que muito inicial) para a verdadeira AGI. Isto é, um programa artificial que consegue efetivamente raciocinar, mesmo de forma rudimentar, é um sinal de esperança para aqueles que durante décadas têm vindo a argumentar que desenvolver verdadeiras “máquinas pensantes” está ao nosso alcance.
Ora, tudo isto é especulação nesta altura. Tirando a malta que está mesmo dentro da OpenAI, ninguém sabe ao certo qual o nível de verdade disto tudo. E qualquer descoberta científica tem sempre de ser verificada e reproduzida por investigadores externos e independentes para garantir que a coisa é como dizem ser. Mas isso não impediu que a conversa explodisse no universo da malta que gosta de discutir a AGI, havendo aqueles que estão super-entusiasmados com a possibilidade, e os outros que estão completamente cépticos sobre as capacidades anunciadas.
Eu inclino-me mais para o campo dos cépticos, mas mesmo assim com alguma curiosidade sobre o que anda a OpenAI a fazer. E explico porquê.
Até agora, o trabalho da OpenAI tem sido muito focado nos LLMs (grandes modelos de linguagem), que por esta altura já quase toda a gente percebeu que apesar de demonstrarem capacidades extraordinárias de gerar textos e imagens, têm também algumas limitações. E mesmo quem trabalha nessas áreas sabe perfeitamente que não é só mais computação ou mais dados que vão resolver essas limitações. E portanto, há que procurar mecanismos alternativos que possam complementar os LLMs e que permitam superar as limitações. E um desses mecanismos alternativos que está a ser estudado é o Planeamento Automático.
O Planeamento Automático é uma área da IA que consiste em imbuir um programa da capacidade de desenhar um plano e executá-lo para atingir um determinado objetivo. Isto é, dado um objetivo e um conjunto de ações disponíveis, o trabalho que o programa tem de fazer é perceber qual é a combinação das ações (ou seja, o plano) que leva-o a cumprir com o objetivo.
Esta é a área em que eu tenho trabalhado desde que comecei na IA no ano 2000. Em particular, aquilo que sempre tentei fazer (e que já expliquei numa edição da newsletter no passado) é o desenvolvimento de um agente pessoal (uma espécie de assistente virtual inteligente) que é capaz de resolver pedidos que lhe sejam endereçados, através de planeamento e execução de ações para atingir objetivos. Isto é o Santo Graal do Planeamento Automático e é algo que tem tido alguns (poucos) avanços ao longo das últimas 5 décadas.
Aquilo que agora se especula é que este Q* é a forma da OpenAI estar a testar as águas do Planeamento Automático. Isto é, o Q* poderá ser o mecanismo alternativo mas complementar que permite ultrapassar a limitação da alucinação estatística que assola qualquer LLM e que permite chegar ao nível do raciocínio humano.
A parte que me deixa céptico é a experiência com este tipo de sistemas. O principal obstáculo com que nos deparamos nesta área do Planeamento Automático é mesmo a escalabilidade. Fazer um agente que consegue desenvolver planos e executá-los é muito fácil… para domínios simples. Eu fiz isso dezenas de vezes. Escalar essa capacidade para ambientes mais complexos e com uma infinidade de ações torna-se muito mais complicado (que no fundo é o que os humanos são muito bons a fazer).
Outro obstáculo é a generalização do planeamento. Gerar capacidade de planeamento num domínio, mesmo que complexo, não é depois transferível para outro domínio. Portanto, isto requer treinos especializados para cada domínio diferente, o que não é muito prático no mundo real. Um outro desafio considerável no planeamento automático é a instabilidade dos domínios onde estes agentes planeadores operam. O mundo real é cheio de elementos incertos e inconstantes, o que significa que estes agentes têm também de ter capacidades consideráveis de se adaptarem a contextos em constante mudança. Mais uma vez, estas são capacidades que os humanos demonstram facilmente, mas que as máquinas têm muita dificuldade em desenvolver.
Por isso é que a uma dada altura, eu mudei a minha direção de investigação (e muitas outras pessoas) para o Planeamento Automático Distribuído, na esperança de que repartir esse trabalho por milhares de agentes com capacidades diferentes pudesse ajudar a ultrapassar os problemas de escalabilidade, generalização e adaptabilidade. Em certa medida, ajuda, mas não o suficiente para desenvolver uma capacidade de raciocínio generalizado num ambiente artificial.
Mas eu sou eu, e a equipa da OpenAI, com os seus recursos de pessoas e computação, pode ir muito além do que eu ou qualquer outro investigador na área consegue chegar. Daí que, apesar de conhecer as limitações desta área de investigação, tenho alguma curiosidade para ver como é que a OpenAI pretende resolver este desafio.
Notícias Várias
Acordos anti-concorrência
Parece que as investigações anti-concorrência que agora estão a aparecer em força nos Estados Unidades são cada vez mais necessárias. Começam agora a vir a público os detalhes de alguns desses acordos e parcerias que retratam relações que não fomentam muito a concorrência livre nos mercados de tecnologia.
Um desses exemplos é a relação entre a Google e a Apple. Já era sabido que a Google paga todos os anos à Apple para que o Google (o motor de pesquisa) seja o default nos dispositivos móveis vendidos pela Apple. Agora, durante o julgamento do Departamento da Justiça dos EUA contra a Alphabet (empresa-mãe da Google), ficou a saber-se que a Google paga cerca de 36% dos ganhos com anúncios que são mostrados no browser Safari à Apple. Isto cimenta ainda mais a relação entre estas duas empresas, deixando pouco espaço para os concorrentes conseguirem afirmar-se no mercado dos motores de pesquisa e de anúncios.
Outro caso que ficou agora conhecido é de que a Apple terá chegado a um acordo com a Amazon para minimizar a presença de anúncios da concorrência nas páginas dos produtos Apple no site da Amazon. Embora a Amazon continue a listar produtos concorrentes nos resultados de pesquisa, o acordo limita o número de anúncios apresentados acima, abaixo e entre os resultados. Isto torna os resultados de pesquisa e as páginas de produtos da Apple mais limpos e sem anúncios em comparação com concorrentes como a Samsung. Não se sabe ao certo qual a compensação que a Apple oferece à Amazon por este privilégio no espaço publicitário mas aposto que não é baixa.
Mais avanços incríveis na IA
Eu gosto sempre de acompanhar os avanços que vão sendo reportados pela aplicação de IA em áreas diferentes. E recentemente, têm aparecido mais exemplos interessantes. Investigadores da Universidade de Leeds, no Reino Unido desenvolveram uma rede neuronal que consegue mapear de forma rápida e precisa icebergues de grande dimensão na Antártida, através de imagens de satélite. Este modelo supera a capacidade de um humano realizar a mesma tarefa numa ordem de grandeza de 10 mil vezes mais rápida.
No mesmo contexto de modelos de IA que conseguem superar a eficácia de humanos ao executar as mesmas tarefas, chega-nos o exemplo do modelo de meteorologia GraphCast da Google DeepMind, que demonstrou superar os métodos convencionais de previsão meteorológica, de acordo com um estudo publicado na revista Science. O modelo consegue prever as condições meteorológicas globais com até 10 dias de antecedência de forma mais precisa e rápida, superando o trabalho realizado por humanos em 90% das métricas. Espero que isto signifique que vamos ter melhores previsões meteorológicas no futuro.
Outra área em que a IA (e mais uma vez vinda do laboratório Google DeepMind) tem sido usada para explorar novos caminhos é a produção de novos materiais. Um novo modelo de IA do Google DeepMind criou 380 mil novos tipos de materiais, aumentando em 10 vezes o número de materiais estáveis conhecidos. O desafio agora é perceber se de entre estes vários materiais há algum que tem o potencial para revolucionar o mundo real contribuindo, por exemplo, para melhorar áreas de produção como as baterias e os materiais supercondutores.
Na área da saúde, surge um novo estudo vindo de Oxford que mostra que é possível usar IA para prever o risco de ataque cardíaco com até uma década de antecedência, potencialmente salvando vidas e melhorando o tratamento de muitos pacientes. O estudo, financiado pela British Heart Foundation, centrou-se na melhoria da precisão das tomografias computorizadas cardíacas utilizando IA. A ferramenta conseguiu prever com precisão o risco de ataque cardíaco num grupo de teste e alterou os planos de tratamento de 45% dos doentes. A sua implementação de forma global poderia evitar milhares de mortes evitáveis por ataque cardíaco anualmente no Reino Unido e em todo o mundo.
Os 25 anos da ISS
A Estação Espacial Internacional (ISS em inglês) está de parabéns. Festejam-se agora os 25 anos desde que teve início a construção da ISS, um projeto de colaboração que envolveu a NASA, a ESA, a Roscosmos, a CSA e a JAXA. Em 1998, o processo começou com o lançamento do módulo inicial da ISS. Desde então, tem sido continuamente habitada e espera-se que assim permaneça até, pelo menos, 2030. A ISS funciona como uma instalação de investigação e teste de tecnologia em microgravidade num órbita estável à volta do nosso planeta. Consegue abrigar uma tripulação de sete pessoas e enfrenta desafios diários, como a manutenção e a higiene pessoal em condições muito diferentes das que temos cá em baixo. Após a descontinuação da ISS (já está a ficar velhinha) que está prevista para 2030, a estação será direcionada de volta à Terra, com a queda planeada dos destroços no Oceano Pacífico, especificamente numa área bem afastada de qualquer costa conhecida como o Point Nemo, uma zona normalmente utilizada como local de “aterragem” de lixo espacial.
IA Generativa para Vídeo
O novo modelo de IA generativa, chamado "Stable Video Diffusion" da Stability AI, pode criar vídeos curtos a partir de imagens fixas, dando portanto vida a fotos como se tratasse do mundo mágico de Harry Potter. Eu já experimentei e os resultados que obtive são, no mínimo… estranhos. Mas há quem tenha apurado os inputs o suficiente para obter resultados bem interessantes.
Vejam este exemplo:
Podem experimentar gratuitamente aqui.
Nota final
O Guilherme Campos, que escreve a newsletter Mealheiro (sobre finanças pessoais) teve uma iniciativa interessante de aplicação de IA no mundo político. Ele desenvolveu um site onde nós podemos “conversar” com os programas eleitorais dos vários partidos Portugueses.
É uma forma interessante de termos uma participação mais ativa na vida política, principalmente nesta altura em que vamos (novamente) a eleições.
Até à próxima!
António Lopes