
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Install Vertex AI SDK for Python and import libraries
/ 20
Use the Gemini Flash model
/ 20
Build metadata of documents containing text and images
/ 20
Search similar image with image query
/ 20
Print citations and references
/ 20
Gemini (em inglês) é uma família de modelos de IA generativa desenvolvida pelo Google DeepMind, criada para casos de uso multimodais. A API Gemini dá acesso aos modelos Gemini Pro Vision e Gemini Pro.
A geração aumentada de recuperação (RAG, na sigla em inglês) se tornou um dos paradigmas mais usados para permitir que os LLMs acessem dados externos. Ela também é um mecanismo de embasamento para reduzir alucinações artificiais. Os modelos de RAG são treinados para recuperar documentos relevantes de um grande corpus e gerar uma resposta baseada neles. Neste laboratório, você vai aprender a realizar a RAG multimodal para fazer perguntas e respostas sobre um documento do setor financeiro que contém textos e imagens.
A RAG multimodal oferece diversas vantagens em relação à RAG baseada em texto:
Neste laboratório, mostramos como usar a RAG com a API Gemini da Vertex AI, embeddings de texto e embeddings multimodais para criar um mecanismo de pesquisa de documentos.
Neste laboratório, você vai aprender a:
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento. No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
Você também encontra o nome de usuário no painel Detalhes do Laboratório.
Clique em Próxima.
Copie a Senha abaixo e cole na caixa de diálogo de Olá.
Você também encontra a senha no painel Detalhes do Laboratório.
Clique em Próxima.
Acesse as próximas páginas:
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
No menu de navegação () do console do Google Cloud, clique em Vertex AI > Workbench.
Ache a instância
A interface do JupyterLab para sua instância do Workbench é aberta em uma nova guia do navegador.
Clique no arquivo intro_multimodal_rag.ipynb
.
Execute as seções Vamos começar e Importar bibliotecas do notebook.
Clique em Verificar meu progresso para conferir o objetivo.
Nas seções a seguir, você vai analisar as células do notebook para saber como usar a API Gemini para criar um sistema RAG multimodal.
O modelo Gemini Pro (gemini-pro
) foi desenvolvido para processar tarefas de linguagem natural, chat de código e texto com várias interações, além de geração de código. Nesta seção, você vai fazer o download de algumas funções auxiliares necessárias para este notebook para facilitar a leitura. Você também pode ver o código (intro_multimodal_rag_utils.py
) diretamente no GitHub.
Clique em Verificar meu progresso para conferir o objetivo.
Os dados de origem usados neste laboratório são uma versão modificada do Google-10K, que oferece uma visão geral ampla do desempenho financeiro, das operações comerciais, do gerenciamento e dos fatores de risco da empresa. Como o documento original é bem grande, você vai usar uma versão modificada com apenas 14 páginas. Mesmo sendo um resumo, o documento de amostra ainda apresenta texto com imagens, como tabelas e gráficos.
Clique em Verificar meu progresso para conferir o objetivo.
Vamos começar com uma pergunta simples para verificar se ela pode ser respondida com uma pesquisa de texto simples usando embeddings de texto. A resposta esperada é mostrar o valor do lucro líquido básico e diluído por ação do Google para diferentes tipos de ações.
Imagine que você está pesquisando imagens, mas, em vez de digitar palavras, você usa uma imagem real como dica. Você tem uma tabela com números sobre o custo da receita por dois anos e quer encontrar outras imagens parecidas no mesmo documento ou em vários documentos.
A capacidade de identificar textos e imagens semelhantes com base na entrada do usuário, com a tecnologia do Gemini e embeddings, cria uma base essencial para o desenvolvimento de sistemas RAG multimodal, que será discutido em mais detalhes na próxima tarefa.
Clique em Verificar meu progresso para conferir o objetivo.
Suponha que temos um gráfico mostrando uma comparação entre as ações classe A do Google e o índice S&P 500 ou outras empresas de tecnologia. Você quer comparar as ações classe C com o gráfico. Em vez de encontrar outra imagem semelhante, peça para o Gemini comparar as imagens e informar em quais ações ele recomendaria um investimento. O Gemini então daria uma resposta com uma explicação.
Agora vamos juntar todo o conteúdo deste laboratório para implementar a RAG multimodal. Use todos os elementos que você analisou nas seções anteriores para implantar a RAG multimodal. Confira as etapas:
pesquisa de texto
.image_description
usando um método idêntico ao analisado na pesquisa por imagens
.context_text
e context_images
.Clique em Verificar meu progresso para conferir o objetivo.
Neste laboratório, você aprendeu a criar um mecanismo avançado de pesquisa de documentos usando a geração aumentada de recuperação (RAG) multimodal. Você aprendeu a extrair e armazenar metadados de documentos contendo texto e imagens e gerar embeddings para os documentos. Além disso, agora você sabe como pesquisar os metadados com consultas de textos e imagens para encontrar conteúdo semelhante. Por fim, você aprendeu a usar uma consulta de texto como entrada para pesquisar respostas contextuais usando textos e imagens.
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 13 de junho de 2024
Laboratório testado em 13 de junho de 2024
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.
Este conteúdo não está disponível no momento
Você vai receber uma notificação por e-mail quando ele estiver disponível
Ótimo!
Vamos entrar em contato por e-mail se ele ficar disponível
One lab at a time
Confirm to end all existing labs and start this one