Olá, eu sou o António Lopes. Bem vindos a mais uma edição da newsletter do Um sobre Zero.
Um apontamento de humor
6 meses de pausa em sistemas de IA
Para o caso de não perceberem o contexto do tweet que destaquei acima, fiquem a saber que, esta semana, um conjunto de personalidades escreveu uma carta aberta a pedir o seguinte (optei por não traduzir para ficar bem claro o pedido):
We call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.
Os signatários desta carta aberta (mais de 1500), que incluem pessoas como Elon Musk (dispensa apresentações), Steve Wozniak (co-fundador da Apple), Yuval Noah Harari (autor do conhecido livro Sapiens) e Andrew Yang (ex-candidato a presidente dos EUA e acérrimo defensor do Universal Basic Income), apresentam alguns argumentos sobre a possibilidade do desenvolvimento de sistemas que se aproximam do nível de inteligência humana constituirem potenciais riscos para a sociedade e humanidade e que, como tal, é o tipo de iniciativa que exige planeamento e gestão a um nível excepcionalmente elevado.
Esta posição é claramente uma reação, a quente, ao que se tem vindo a testemunhar nos últimos meses, no que toca ao desenvolvimento e aplicação de modelos de inteligência artificial. E, na minha opinião (também a quente), considero que isto é uma proposta descabida. Mas já lá vamos.
Um gostinho do que será a Singularidade Tecnológica
É verdade que temos vivido meses frenéticos no mundo da tecnologia de IA. A velocidade a que as novidades têm aparecido nesta área deixam qualquer pessoa com vertigens. Ou porque percebem o potencial de inovação e desenvolvimento e se entusiasmam com o futuro, ou porque percebem o potencial de destruição e caos e se assustam com o futuro. Mas a verdade é que ninguém fica indiferente.
Isto é apenas um vislumbre daquilo que iremos ver no futuro - e que eu e alguns amigos já temos vindo a falar há bastante tempo (e que é a razão porque a newsletter e o podcast se chamam Um sobre Zero) - que é a Singularidade Tecnológica. Citando a Wikipedia:
Singularidade tecnológica é a hipótese que relaciona o crescimento tecnológico desenfreado da super inteligência artificial a mudanças irreversíveis na civilização humana. Segundo essa hipótese, a "reação desenfreada" de um agente inteligente atualizável com capacidade de auto-aperfeiçoamento (como um computador que executa inteligência artificial baseada em software) geraria cada vez mais rapidamente, indivíduos dotados de uma super inteligência poderosa que, qualitativamente, ultrapassaria toda a inteligência humana.
É normal que ao lerem esta frase sintam alguma preocupação sobre o que será o futuro trazido pela IA. E é também normal que se faça um paralelo com o que está a acontecer agora. Para algumas pessoas, o ritmo desenfreado com que temos vindo a ser “bombardeados” com inovações constantes na área da IA, é simplesmente avassalador e algo difícil de lidar, porque quase não temos tempo para refletir sobre o que se está a passar.
O exemplo das imagens geradas através do Midjourney do casaco do Papa e das fotos do Trump a ser preso pode parecer caricato, mas o facto de haver gente que acredita nestas imagens mostra o perigo potencial de desinformação e o impacto que terá na sociedade.
E nesse sentido eu até compreendo a reação destas personalidades ao fazerem o pedido que fizeram nesta carta aberta. Mas, raios, a proposta que fazem não tem sentido nenhum.
Vamos analisar a premissa.
Parar é uma boa opção?
Não discordo de que vivemos tempos desafiantes e que deve ser feito um esforço considerável em acompanhar e compreender os impactos que o desenvolvimento de modelos de inteligência artificial podem causar na sociedade. Desenvolver este tipo de modelos, acarreta riscos. E esses riscos podem ser sérios, principalmente se não houver responsabilidade e rigor no lançamento de modelos seguros para o público.
Olhando para o que está a acontecer agora, será que todas as equipas que trabalham na área estão a operar com a “responsabilidade e rigor” que devia ser a base destas iniciativas? É certo que instituições como a OpenAI e a Microsoftpodiam ser mais transparentes, mas ainda assim não me parece que estejam a ser totalmente irresponsáveis com esta iniciativa de tentar democratizar o acesso a ferramentas de IA. O GPT-4, por exemplo, foi treinado há mais de 6 meses e tem sido estudado e melhorado até agora ao seu lançamento semi-público.
O que estas personalidades agora argumentam é que este caminho é potencialmente catastrófico e como tal é necessário tomar medidas drásticas, nomeadamente, exigir uma pausa para reflexão de toda e qualquer investigação nesta área de desenvolvimento de modelos de inteligência artificial superiores ao GPT-4, durante um período mínimo de 6 meses.
Primeiro, eu diria que esta iniciativa não é sequer realista. A caixa de Pandora foi aberta… e a única forma de garantir que essa pausa seria efetivamente feita, era através de um esforço governamental global para controlar este tipo de atividades. Mas o interesse político em dominar este tipo de tecnologia e o interesse económico de chegar primeiro aos produtos que irão definir este mercado da inteligência artificial generalizada são demasiado tentadores e comprometem um esforço global que todos os países/governos respeitariam. E se um fizesse, os outros não poderiam ficar para trás.
Segundo, eu diria que não é sequer desejável. Ter forças governamentais a impor moratórias sobre tecnologias que não compreendem é uma boa forma de estagnar a inovação e o investimento no desenvolvimento tecnológico. Por outro lado, as moratórias, ainda que possam ser bem-intencionadas, na verdade o que fazem é não deixar espaço para os debates e conversas construtivas que só se conseguem ter se efetivamente se estiver ativamente a investigar, desenvolver e testar estas abordagens.
Por isso, na minha opinião, não, parar não é a solução. E banir o ChatGPT, como Itália agora quer fazer, muito menos.
Mas a verdade é que não acho que se pode continuar assim, de forma desregulada e desenfreada, sem discutir as implicações do que está a ser feito. É que não há garantias que, em todas as equipas que estão a trabalhar em avanços de IA, não vai haver uma que vai passar as fronteiras éticas daquilo que é correto e seguro, e desenvolver algo que será potencialmente destruidor da sociedade.
Então, qual é a solução?
O que não falta no mundo da tecnologia são exemplos de como as empresas não podem ser deixadas a operar livremente sem qualquer controlo por parte das entidades reguladoras. Veja-se, por exemplo, o impacto das redes sociais (e os seus algoritmos opacos) na manipulação da sociedade em questões tão críticas como eleições presidenciais, ou no impacto da saúde mental dos adolescentes. Se a isto juntarmos o poder da geração de conteúdo sintético através de modelos avançados de IA, é natural que o futuro pareça assustador.
Como tal, o acompanhamento contínuo por parte dos governos nas iniciativas que vão sendo desenvolvidas e postas em prática na sociedade é imperativo. Nesse sentido, será que se poderia aplicar o mesmo modelo que existe, por exemplo, no desenvolvimento dos medicamentos?
Sabemos bem que não é possível desenvolver um medicamento sem um acompanhamento constante do processo de investigação e teste clínico do mesmo. Uma metodologia auditável no desenvolvimento de um fármaco por parte de uma entidade reguladora e competente é um passo fundamental que garante que o mesmo só pode ser lançado para o mercado quando há um nível de certeza satisfatório de que o benefício que o medicamento traz para a sociedade supera largamente quaisquer desvantagens que possa trazer.
Eu já tinha falado desta analogia no podcast Cruzamento, em novembro do ano passado, juntamente com o Bruno Amaral. E durante essa conversa, o Daniel Guedelha (um dos autores do podcast Cruzamento, juntamente com o André Correia) contrapôs essa minha ideia argumentando que um medicamento não se altera após entrar no mercado, ao contrário de uma inteligência artificial, que tem o potencial de “aprender” e se ir modificando ao longo do tempo.
É um ponto perfeitamente válido, que eu concordo. E por isso mesmo é que completaria a minha analogia referindo que, mesmo após o medicamento estar no mercado, as entidades competentes mantêm a monitorização do mesmo, para garantir que, caso haja efeitos adversos que não foram previstos na fase de estudo e análise (e que às vezes há e até com resultados trágicos, como a morte de pessoas), se possa reagir e retirar rapidamente o produto do mercado.
Talvez eu esteja a ser ingénuo - o que é perfeitamente possível - mas já agora gostava de ouvir a vossa opinião sobre esta possibilidade. Faz sentido aplicar este modelo ao desenvolvimento de tecnologias de IA? Sim? Não? Porquê?
Notícias Várias
Soube-se agora que o Elon Musk tentou assumir o controlo direto da OpenAI em 2018, porque estava preocupado que a empresa estivesse a ficar para trás em relação ao Google no desenvolvimento de modelos avançados de IA. Contudo, ele foi rejeitado pelos outros fundadores da OpenAI, incluindo Sam Altman, agora CEO da empresa, e Greg Brockman, agora seu presidente. E agora está tão preocupado com o avanço da OpenAI, que decide encabeçar esta iniciativa da carta aberta (sim, o Future of Life Institute, que é a instituição que publicou a carta aberta, é financiada pela Fundação Musk) para parar os desenvolvimentos de IA.
O CEO da Google, Sundar Pichai, referiu numa entrevista dada ao podcast Hard Fork (recomendação abaixo) que o Bard, o assistente inteligente da Google, vai migrar do seu actual modelo baseado em LaMDA para o modelo mais avançado e completo entitulado PaLM. A mudança destina-se a aumentar as capacidades do modelo para raciocínio, codificação e diversidade de respostas uma vez que o PaLM foi treinado com aproximadamente 540 mil milhões de parâmetros em comparação com os 137 mil milhões de parâmetros do LaMDA.
O Congresso Americano está mesmo de ideias feitas em banir o TikTok, o que me parece uma péssima ideia. Ainda hei-de falar sobre isso numa próxima edição da newsletter.
Tal como prometido, o Twitter publicou ontem o código-fonte do seu algoritmo de recomendações da secção “For You” da aplicação. Aposto que os próximos dias vão ser interessantes enquanto o pessoal encontra todo o tipo de maravilhas impostas pelo Elon Musk.
Entretanto, o Twitter também anunciou novos detalhes e preços para o acesso à sua API, em que confirmam que irá existir um nível gratuito com funcionalidade limitada (parece que é só para bots e só permite 1.500 tweets mensais 😂) e um nível "básico" que custa $100 por mês e que fornece um pouco mais (permite 3.000 tweets por utilizador e 50.000 por aplicação).
E como não há duas sem três, o Elon Musk anunciou que a secção “For You” da aplicação do Twitter vai passar a recomendar apenas contas verificadas (ou seja, aqueles que pagam para ter o check azul). Isto tem tudo para correr bem.
O Texas, nos EUA, vai albergar o primeiro hotel totalmente impresso em 3D. Usando uma impressora que é praticamente do tamanho de uma casa, esta iniciativa vai construir um hotel rústico com área de lazer, piscina e “cabanas” para os hóspedes.
Os rumores já começaram de que é na sua próxima World Wide Developers Conference (WWDC), a iniciar-se em 5 de junho, que a Apple irá anunciar a sua primeira aventura no mundo dos óculos de realidade aumentada/virtual. Vamos ver se a Apple consegue efetivamente criar entusiasmo numa área que está há décadas estagnada.
Eu bem que tinha dito que esta onda de modelos de IA ia criar novas oportunidades de profissões. Parece que já há ofertas de emprego a rondar os 300 mil dólares por ano para “gente que é boa a interagir com o ChatGPT”. É verdade que a IA vai destruir empregos, mas vai criar muitos mais.
Recomendações de leituras
GatesNotes - The Age of AI has begun
No meio deste frenesim, é bom ver que o Bill Gates abandonou aquela posição de tragédia anunciada que tinha há uns anos em relação à inteligência artificial e decide publicar um texto interessante de reflexão sobre o que está a acontecer. Nesta opinião, ele aponta o desenvolvimento da IA como o avanço mais importante na tecnologia desde a introdução da interface gráfica do utilizador. Gates mostra também que está particularmente interessado no potencial da IA para ajudar a reduzir as desigualdades no mundo, incluindo a prevenção de mortes de crianças causadas por doenças evitáveis, melhorando a educação, e mitigando os efeitos das alterações climáticas. No entanto, ele reconhece que a IA também levanta questões éticas e sociais, tais como a deslocação da força de trabalho, privacidade, e preconceitos, e apela aos governos e à filantropia para assegurar que a tecnologia reduza a desigualdade.
Recomendações de podcasts
Hard Fork - Sundar Pichai
Nesta entrevista, o CEO da Google afirma que não está preocupado com o facto da Google parecer estar a ficar para trás nesta área da IA em relação à concorrência. A preocupação louvável dele parece estar na segurança e qualidade do assistente virtual Bard. Ele dá também a sua opinião sobre a carta aberta referida acima, declarando que discorda da proposta mas que reconhece que é necessário orientação e regulamentação nesta área e que isso só é possível se o governo for envolvido no processo.
On with Kara Swisher - Sam Altman
Uma entrevista franca e honesta com o CEO da Open AI, Sam Altman. Por vezes, a postura descontraída do Sam Altman irrita-me, porque parece que ele não dá a importância necessária ao impacto que o trabalho da empresa dele tem na sociedade, mas por outro lado, a honestidade e humildade com que ele é capaz de dizer “não sei, mas quero investigar/perceber” é refrescante. Vale a pena ouvir.
Nota final
Boa Páscoa!
Até à próxima!
António Lopes
Obrigado pela partilha deste conteúdo!
Muito informativo.