Skip to main content

ตัวอย่าง End to End

เอกสารนี้ได้รับการแปลโดยอัตโนมัติและอาจมีข้อผิดพลาด อย่าลังเลที่จะเปิด Pull Request เพื่อแนะนำการเปลี่ยนแปลง.

เรามีตัวอย่าง End-to-End หลายรูปแบบที่ใช้ LlamaIndex.TS ในเรปอสิทอรี

ดูตัวอย่างด้านล่างหรือลองใช้งานและทำตามได้ในไม่กี่นาทีด้วยการสอนแบบ Github Codespace ที่ให้โดย Dev-Docs ที่นี่:

Chat Engine

อ่านไฟล์และพูดคุยเกี่ยวกับมันกับ LLM.

ดัชนีเวกเตอร์

สร้างดัชนีเวกเตอร์และสอบถามข้อมูล ดัชนีเวกเตอร์จะใช้การฝังรูปภาพเพื่อเรียกดูโหนดที่เกี่ยวข้องมากที่สุด k โหนด โดยค่าเริ่มต้นของ k คือ 2.

"

สรุปดัชนี

สร้างดัชนีรายการและสอบถามดัชนี ตัวอย่างนี้ยังใช้ LLMRetriever ซึ่งจะใช้ LLM เพื่อเลือกโหนดที่ดีที่สุดในการสร้างคำตอบ

"

บันทึก / โหลดดัชนี

สร้างและโหลดดัชนีเวกเตอร์ การบันทึกลงดิสก์ใน LlamaIndex.TS จะเกิดขึ้นโดยอัตโนมัติเมื่อมีการสร้างออบเจ็กต์ storage context

"

Customized Vector Index

สร้างดัชนีเวกเตอร์และสอบถามด้วยการกำหนดค่า LLM, ServiceContext, และ similarity_top_k

"

OpenAI LLM

สร้าง OpenAI LLM และใช้งานได้โดยตรงสำหรับการสนทนา.

"

Llama2 DeuceLLM

สร้าง Llama-2 LLM และใช้งานได้โดยตรงสำหรับการสนทนา.

"

SubQuestionQueryEngine

ใช้ SubQuestionQueryEngine ซึ่งแยกคำถามที่ซับซ้อนเป็นคำถามหลายๆ คำ แล้วรวมผลลัพธ์จากคำตอบของทุกคำถามย่อยเข้าด้วยกัน

"

โมดูลระดับต่ำ

ตัวอย่างนี้ใช้คอมโพเนนต์ระดับต่ำหลายอย่างซึ่งลดความจำเป็นในการใช้งานเครื่องมือค้นหาจริง คอมโพเนนต์เหล่านี้สามารถใช้ได้ทุกที่ในแอปพลิเคชันใดก็ได้ หรือปรับแต่งและสร้างคลาสย่อยเพื่อตอบสนองความต้องการของคุณเอง