Pular para o conteúdo principal

Exemplos de Ponta a Ponta

Esta documentação foi traduzida automaticamente e pode conter erros. Não hesite em abrir um Pull Request para sugerir alterações.

Incluímos vários exemplos de ponta a ponta usando o LlamaIndex.TS no repositório.

Confira os exemplos abaixo ou experimente-os e complete-os em minutos com tutoriais interativos do Github Codespace fornecidos pelo Dev-Docs aqui:

Chat Engine (Motor de Chat)

Leia um arquivo e converse sobre ele com o LLM.

Índice Vetorial

Crie um índice vetorial e faça consultas nele. O índice vetorial usará embeddings para buscar os nós mais relevantes do top k. Por padrão, o top k é 2.

Índice de Resumo

Crie um índice de lista e consulte-o. Este exemplo também usa o LLMRetriever, que usará o LLM para selecionar os melhores nós a serem usados ao gerar uma resposta.

Salvar / Carregar um Índice

Crie e carregue um índice de vetor. A persistência no disco no LlamaIndex.TS acontece automaticamente assim que um objeto de contexto de armazenamento é criado.

"

Índice Vetorial Personalizado

Crie um índice vetorial e consulte-o, ao mesmo tempo em que configura o LLM, o ServiceContext e o similarity_top_k.

OpenAI LLM

Crie um OpenAI LLM e use-o diretamente para conversar.

Llama2 DeuceLLM

Crie um Llama-2 LLM e use-o diretamente para bate-papo.

"

SubQuestionQueryEngine

Utiliza o SubQuestionQueryEngine, que divide consultas complexas em várias perguntas e, em seguida, agrega uma resposta com base nas respostas de todas as subperguntas.

"

Módulos de Baixo Nível

Este exemplo utiliza vários componentes de baixo nível, o que elimina a necessidade de um mecanismo de consulta real. Esses componentes podem ser usados em qualquer lugar, em qualquer aplicativo, ou personalizados e sub-classificados para atender às suas próprias necessidades.