Bagaimana Cara Menggunakan Buffer Token Percakapan di LangChain?

Bagaimana Cara Menggunakan Buffer Token Percakapan Di Langchain



LangChain memungkinkan pengembang untuk membangun model menggunakan pembelajaran mesin atau pembelajaran mendalam yang dapat melatih model menggunakan kumpulan data. Model ini dapat memperoleh pola berbeda dari data atau memahami bentuk kumpulan data dan bahasanya untuk mengekstrak informasi. Model Bahasa Besar atau LLM dapat dikonfigurasi atau dirancang menggunakan kerangka LangChain yang dapat memahami dan menghasilkan teks dalam bahasa alami.

Panduan ini akan mengilustrasikan proses penggunaan buffer token percakapan di LangChain.

Bagaimana Cara Menggunakan Buffer Token Percakapan di LangChain?

Itu PercakapanTokenBufferMemory perpustakaan dapat diimpor dari kerangka LangChain untuk menyimpan pesan terbaru dalam memori buffer. Token dapat dikonfigurasi untuk membatasi jumlah pesan yang disimpan di buffer dan pesan sebelumnya akan dihapus secara otomatis.







Untuk mempelajari proses penggunaan buffer token percakapan di LangChain, gunakan panduan berikut:



Langkah 1: Instal Modul

Pertama, instal kerangka LangChain yang berisi semua modul yang diperlukan menggunakan perintah pip:



pip instal langchain





Sekarang, instal modul OpenAI untuk membangun LLM dan rantai menggunakan metode OpenAI():

pip instal openai



Setelah menginstal modul, cukup gunakan kunci API OpenAI untuk melakukannya mengatur lingkungan menggunakan perpustakaan os dan getpass:

impor Anda

impor dapatkan pass

Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )

Langkah 2: Menggunakan Memori Buffer Token Percakapan

Bangun LLM menggunakan metode OpenAI() setelah mengimpor PercakapanTokenBufferMemory perpustakaan dari kerangka LangChain:

dari rantailang. Penyimpanan impor PercakapanTokenBufferMemory

dari rantailang. llms impor OpenAI

llm = OpenAI ( )

Konfigurasikan memori untuk mengatur token, ini akan menghapus pesan-pesan lama dan menyimpannya di memori buffer. Setelah itu, simpan pesan dari percakapan tersebut dan dapatkan pesan terbaru untuk digunakan sebagai konteks:

Penyimpanan = PercakapanTokenBufferMemory ( llm = llm , max_token_limit = 10 )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )

Jalankan memori untuk mendapatkan data yang disimpan dalam memori buffer menggunakan metode load_memory_variables():

Penyimpanan. memuat_memori_variabel ( { } )

Langkah 3: Menggunakan Memori Buffer Token Percakapan dalam Rantai

Bangun rantai dengan mengonfigurasi Rantai Percakapan() metode dengan banyak argumen untuk menggunakan memori buffer token percakapan:

dari rantailang. rantai impor Rantai Percakapan

percakapan_dengan_ringkasan = Rantai Percakapan (
llm = llm ,
Penyimpanan = PercakapanTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
bertele-tele = BENAR ,
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar?' )

Sekarang, mulai percakapan dengan mengajukan pertanyaan menggunakan petunjuk yang ditulis dalam bahasa alami:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya mengerjakan proyek NLP' )

Dapatkan output dari data yang disimpan di memori buffer menggunakan jumlah token:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya bekerja merancang LLM' )

Buffer terus diperbarui dengan setiap masukan baru karena pesan sebelumnya dihapus secara berkala:

percakapan_dengan_ringkasan. meramalkan (

memasukkan = 'LLM menggunakan LangChain! Pernahkah Anda mendengarnya'

)

Itu saja tentang penggunaan buffer token percakapan di LangChain.

Kesimpulan

Untuk menggunakan buffer token percakapan di LangChain, cukup instal modul untuk menyiapkan lingkungan menggunakan kunci API dari akun OpenAI. Setelah itu, impor pustaka ConversationTokenBufferMemory menggunakan modul LangChain untuk menyimpan percakapan di buffer. Memori buffer dapat digunakan secara berantai untuk menghapus pesan lama dengan setiap pesan baru dalam obrolan. Posting ini telah menguraikan penggunaan memori buffer token percakapan di LangChain.