Attention Is All You Need
Attention Is All You Need
[F] Já que eu estou pagando o brinquedo. Melhor eu otimizar o uso

Habilidades do curso

Large Language Models (LLMs): você entenderá o que são LLMs e como usá-los para uma variedade de tarefas, incluindo geração de texto, tradução, resumo e resposta a perguntas
Engenharia de Prompts: você será capaz de desenvolver prompts para vários tipos diferentes de entradas e ajustá-los para atingir os resultados desejados
Google AI Studio: você será capaz de usar o Google AI Studio para experimentar prompts e ajustar conjuntos de dados, para personalizar o comportamento dos modelos de IA generativos do Google
API Gemini: você será capaz de escrever código Python para interagir com os modelos de IA generativos do Google e construir um aplicativo RAG (geração aumentada de recuperação) de ponta a ponta

Attention Is All You Need

A maioria dos LLMs são construídos na arquitetura Transformer, que foi introduzida em um artigo chamado Attention Is All You Need em 2017

Os modelos de transdução de sequência dominante são baseados em redes neurais recorrentes ou convolucionais complexas que incluem um codificador e um decodificador. Os modelos de melhor desempenho também conectam o codificador e o decodificador por meio de um mecanismo de atenção. Propomos uma nova arquitetura de rede simples, o Transformer, baseada somente em mecanismos de atenção, dispensando totalmente a recorrência e as convoluções.

[F] Imagina se a gente copiasse aqueles que nos copiaram.