COMPILADO 110 - Assertividade do ChatGPT cai; C# turbinado; Apple terá seu ChatGPT; IA não ameaça humanidade
0
0

COMPILADO 110 - Assertividade do ChatGPT cai; C# turbinado; Apple terá seu ChatGPT; IA não ameaça humanidade

Apple terá seu ChatGPT; IA não ameaça humanidade; uso do Threads cai pela metade

Gabriel Froes
12 min
0
0
Email image

Assertividade do ChatGPT cai em apenas alguns meses

Um estudo da Universidade de Stanford revelou que o ChatGPT, teve uma queda significativa em seu desempenho em tarefas específicas em um período de apenas alguns meses. Entre março e junho, o GPT-4 passou de uma precisão de 97,6% na identificação de um número primo para uma precisão de apenas 2,4%. Por outro lado, a versão GPT-3.5 melhorou seu desempenho na mesma tarefa durante o mesmo período. Outras tarefas, como a geração de códigos e o raciocínio visual, também apresentaram resultados variáveis. O estudo sugere que essas mudanças imprevisíveis podem ser devidas à influência de ajustes em uma parte do modelo.

James Zuo, um dos autores do estudo, destacou a importância de monitorar constantemente o desempenho desses modelos ao longo do tempo devido a essas flutuações, ou "derivações", que podem levar a resultados drasticamente diferentes. O estudo também notou uma falta de transparência em como o ChatGPT chegou às suas conclusões. Em março, o chatbot era capaz de detalhar seu processo de pensamento para resolver problemas, mas em junho, ele parou de explicar seu raciocínio passo a passo. A transparência diminuiu ainda mais quando o chatbot foi questionado sobre assuntos sensíveis, optando por se recusar a responder em vez de explicar por que a questão era inadequada, como havia feito anteriormente. Essa falta de transparência é agravada pela decisão da OpenAI de não disponibilizar seu código como open source, tornando os modelos uma "caixa preta" para os pesquisadores.


Meta abre o modelo de linguagem LLaMA 2

A Meta fez uma contribuição gigantesca para o avanço das Inteligências Artificiais generativas nessa semana: a empresa não apenas anunciou a versão 2 do seu modelo de linguagem LLaMA como também declarou que a solução está liberada gratuitamente para uso comercial e de pesquisa. LLaMa 2 foi treinado em 40% mais informações do que sua versão original, assimilando dados que estavam disponíveis publicamente online. Além disso, o novo modelo apresenta suporte a até 70 bilhões de parâmetros. Segundo a Meta, o modelo de linguagem supera diversos concorrentes nos quesitos raciocínio, codificação, proficiência e conhecimento. 

Até o momento, a Meta teria recebido mais de 100 mil solicitações para utilizar o primeiro LLaMA. A ideia de abrir o LLaMA 2 é justamente expandir ainda mais o alcance do modelo de linguagem. De acordo com o comunicado oficial, “abrir o acesso aos modelos de IA atuais significa que uma geração de desenvolvedores e pesquisadores pode testá-los, identificando e resolvendo problemas rapidamente, como uma comunidade”. O anúncio foi feito durante o evento Microsoft Inspire e a Meta destacou o suporte do LLaMA 2 ao Azure e ao Windows, fortalecendo os laços entre as duas empresas. A Qualcomm aproveitou o momento para revelar que também está trabalhando com a Meta e pretende levar o modelo de linguagem para uma linha de laptops, desktops e headsets a partir de 2024.


Cython: compilador de Python para C recebe nova versão

Depois de quase cinco anos de desenvolvimento, o Cython finalmente chegou na versão 3.0. A biblioteca de Python compila a linguagem para C e busca facilitar o processo de desenvolvimento de extensões. A nova versão é praticamente uma releitura da ferramenta: ela abandona o suporte ao obsoleto Python 2 e abraça funcionalidades muito mais recentes, até o Python 3.12, que deve chegar somente em outubro. Outro ponto de melhoria do compilador está no suporte ao Numpy. A partir de agora, é possível escrever ufuncs do NumPy diretamente no Cython. Desta forma, uma função numérica simples escrita em Cython pode ser facilmente aplicada a todo o conteúdo de uma estrutura de dados NumPy.

O Cython 3 surgiu originalmente três anos atrás, em versões alpha e beta, sem uma data prevista para a versão final. A espera valeu a pena: a nova versão também traz como novidade a evolução do modo “Python puro”. Esse modo permite que os desenvolvedores usem ferramentas de análise de código e linting do Python existentes no Cython. Anteriormente, o Cython era conhecido por utilizar uma sintaxe mista, que agregava elementos do Python com a sintaxe de declaração de tipo C. Com o tempo, o Cython passou a oferecer uma sintaxe alternativa compatível com a sintaxe convencional do Python, chamada de modo Python puro. Agora, a grande maioria das funções do Cython estão plenamente acessíveis através desse modo, que passa a ser o padrão.


Playground leva o WordPress para o navegador

Já pensou em todo o ambiente WordPress rodando direto no navegador, sem necessidade de um servidor? Isso agora é possível com Playground, que utiliza todo o poder do PHP no WebAssembly para tornar essa mágica uma realidade. Como o nome diz, não se trata de oferecer uma solução permanente de publicação de conteúdo: uma vez que o navegador fecha, aquela instalação deixa de existir. O objetivo da ferramenta é oferecer um espaço de experimentação, facilitando o processo de testes, na criação de plugins e temas para o CMS. Além do navegador, Playground também permite que o WordPress rode no Node.js, criando assim uma instalação temporária do ambiente para projetos dentro de ferramentas de desenvolvimento local, como o VS Code. 

Playground é baseado em WebAssembly PHP, incluindo WebAssembly SQLite para o banco de dados. A documentação oficial explica como a ferramenta funciona: “quando o PHP faz uma solicitação de rede, ele cede o controle ao JavaScript, que faz a solicitação e, em seguida, retoma o PHP quando a resposta está pronta. Funciona bem o suficiente para que a compilação do PHP possa solicitar APIs da Web, instalar pacotes de composição e até mesmo conectar-se a um servidor MySQL”. A partir daí, é possível, por exemplo, clonar um site WordPress, fazer o download para o navegador e, em seguida, realizar as alterações desejadas; quando terminar a operação no Playground, basta implantar as modificações de volta no site em produção.


Apple estaria testando rival do ChatGPT

O rumor da vez é que a Apple estaria correndo atrás do prejuízo em relação às IAs generativas e conversacionais. De acordo com informações internas divulgadas pela Bloomberg, a empresa já está testando uma Inteligência Artificial que foi apelidada de “Apple GPT” por seus desenvolvedores. Ainda segundo a reportagem, a Apple está preparando uma estratégia para disponibilizar a tecnologia para seus usuários e o novo produto seria o centro das atenções da empresa no próximo ano. Para chegar na ferramenta, a Apple desenvolveu seu próprio framework para criação de LLM, batizado de AJAX.

Entretanto, as fontes garantem que a Apple não está desenvolvendo toda a tecnologia da cadeia de produção. AJAX seria baseado no Google JAX, o framework de aprendizado de máquina do Google. Além disso, AJAX rodaria através do Google Cloud. O tal “Apple GPT” estaria sendo testado internamente por um número limitado, mas crescente de funcionários da Apple. Ainda de acordo com a Bloomberg, os funcionários da Apple foram instruídos para não utilizar nenhuma resposta da ferramenta para desenvolver recursos destinados ao consumidor. A empresa não emitiu nenhuma declaração oficial sobre a reportagem do “Apple GPT”, mas vagas recentes de emprego reforçam o interesse da Apple no campo das IAs generativas e conversacionais.


Próxima versão do C# quer turbinar compilador

O preview do C# 12 apresenta melhorias significativas em termos de otimização de desempenho. Disponível nas versões preliminares do Visual Studio 17.7 Preview 3 e .NET 8 Preview 6, esta atualização fornece acesso a arrays inline e apresenta um recurso experimental chamado "interceptors", que permitem aos geradores redirecionar o código para otimizações específicas de contexto. Previsto para ser lançado com o .NET 8 em novembro, o C# 12 ainda traz aprimoramentos na expressão nameof, que produz o nome de um tipo de variável ou member como uma string constante, funcionando agora em mais lugares, incluindo initializers, em static members, e em atributos.

Um novo recurso chamado InlineArrayAttribute também foi introduzido. Esta capacidade identifica um tipo que pode ser tratado como uma sequência contígua de primitivos para efficient, type-safe, overrun-safe, indexable e sliceable inline data. Esse recurso será usado principalmente pelo compilador, bibliotecas .NET e outras bibliotecas, buscando melhorar o desempenho dos aplicativos. Além disso, o C# 12 continua a incorporar características anteriormente visualizadas, como parâmetros opcionais para expressões lambda, a capacidade de criar um alias para qualquer tipo e construtores primários para adição de parâmetros a uma declaração de classe.


Twitter terá suporte para artigos e vagas de emprego

Quem se lembra de quando o Twitter começou e tinha apenas 140 caracteres, sem suporte para multimídia ou mesmo RT? Muita coisa mudou de lá pra cá e muita coisa ainda vai mudar daqui pra frente. O próprio Elon Musk, atual proprietário da rede social anunciou que será possível publicar um livro inteiro na plataforma, se o usuário desejar. O novo recurso batizado de Articles irá quebrar todos os limites de caracteres e permitirá até mesmo uso de formatação de texto no Twitter. Além disso, a ferramenta vai permitir combinar texto e mídia na mesma postagem, como um autêntico artigo de revista. Musk não deu nenhuma estimativa de quando essa nova funcionalidade será implementada.

Enquanto isso, nos bastidores, apareceu um novo recurso para empresas verificadas: publicar vagas de emprego. A ferramenta ainda não foi liberada completamente, mas seu resultado já pode ser visto em algumas contas. As empresas que contratam esse serviço podem mostrar no cabeçalho de seus perfis vagas com links diretos para os candidatos se inscreverem. A funcionalidade recebeu o nome de Twitter Hiring e permitirá que as empresas verificadas publiquem até cinco vagas nesse formato, simplesmente importando os dados diretamente para a plataforma, através de um feed ATS ou XML compatível. Aparentemente, o valor da ferramenta já está embutida na assinatura mensal do programa Verified for Organizations.


Especialistas garantem que IA não ameaça Humanidade

Se você estava preocupado com o futuro da raça humana, pode ficar tranquilo: um coletivo de cientistas do Reino Unido assinou uma carta aberta declarando que as Inteligências Artificiais não são uma ameaça. A iniciativa partiu da Sociedade Britânica de Computação e foi validada por mais de 1300 especialistas. Eles acreditam que está na hora de combater o que chamam de “condenação da IA” e defendem que a tecnologia é uma força positiva. Embora seus signatários não contem com nenhum nome de peso, o documento traz representantes de uma diversidade de setores, da área de negócios, do mundo acadêmico, de órgãos públicos e centros de pesquisa. 

A carta aberta acaba se tornando uma espécie de resposta ao manifesto publicado anteriormente em março, que buscava alertar, com tons dramáticos, sobre os riscos dos avanços das Inteligências Artificiais e pedia uma pausa no seu desenvolvimento. O tempo passou e a tecnologia não pausou. Agora, os britânicos defendem a seguinte proposta: “o Reino Unido pode ajudar a abrir o caminho na definição de padrões profissionais e técnicos para os papéis da inteligência artificial, respaldados por um código de conduta robusto, colaboração internacional e regulamentação com todos os recursos”. A Sociedade Britânica de Computação garante que o país está pronto para se tornar “um sinônimo global de IA de alta qualidade, ética e inclusiva”.


ChatGPT cria novo recurso de instrução personalizada

Defina suas preferências e o ChatGPT as considerará em todas as conversas futuras. Esse é o recurso chamado de "instruções personalizadas" no ChatGPT, permitindo que os usuários adequem o modelo às suas necessidades. Inicialmente disponível em versão beta para o plano Plus e, em breve, para todos os usuários, essas instruções personalizadas permitem que os usuários adicionem preferências ou requisitos específicos para que o ChatGPT leve em conta ao gerar suas respostas. Com base no feedback dos usuários em 22 países, a empresa reconhece a importância da "steerability" (capacidade de direcionamento) para permitir que o modelo reflita efetivamente os contextos diversos e necessidades únicas de cada pessoa. Agora, o ChatGPT irá considerar essas instruções personalizadas em todas as conversas, eliminando a necessidade de repetir informações em cada interação.

 

Por exemplo, um professor criando um plano de aula não precisa mais repetir que está ensinando ciências para a terceira série. Um desenvolvedor que prefere código eficiente em uma linguagem diferente de Python pode mencionar isso uma vez, e o modelo entenderá. Fazer compras para uma família grande fica mais fácil, pois o modelo levará em conta que a lista de compras deve ser para 6 porções. Esse novo recurso proporciona maior comodidade e eficiência nas interações com o ChatGPT, atendendo melhor às necessidades individuais de cada usuário.


Uso do Threads cai pela metade

Segundo novos dados da SimilarWeb, após atingir 100 milhões de usuários em apenas cinco dias, o período de lua de mel do Threads pode ter chegado ao fim. A empresa de análise publicou uma postagem em seu blog afirmando que o engajamento diminuiu significativamente após um início empolgante como a primeira alternativa séria ao Twitter. O melhor dia do Threads foi em 7 de julho, seu segundo dia de adesão aberta, com 49 milhões de usuários ativos no Android. No entanto, esse número caiu para 23,6 milhões em 14 de julho. Além disso, o tempo médio gasto no aplicativo pelos usuários diminuiu consideravelmente, de 21 minutos em 7 de julho para pouco mais de seis minutos uma semana depois.

Embora o CEO do Twitter, Elon Musk, possa estar satisfeito com a possibilidade de que o concorrente mais sério da plataforma possa ser apenas uma moda passageira, ele não deve comemorar ainda. A postagem no blog destaca que há "alguns sinais" de que o Threads pode "afetar diretamente a participação de mercado do Twitter". Além disso, a retenção de usuários do Twitter também está em queda, com menos novos usuários no Android mantendo o uso regular do aplicativo após 30 dias. A explicação mais provável para a queda no Threads é que o entusiasmo inicial diminuiu, com muitos usuários experimentando o aplicativo, mas não o tornando um hábito diário. Ainda é preciso descobrir como a Meta pode reverter essa tendência e recuperar o interesse dos usuários.


A Semana no Código Fonte TV