Bagaimana Cara Menggunakan Jendela Buffer Percakapan di LangChain?
Jendela buffer percakapan digunakan untuk menyimpan pesan percakapan terbaru di memori untuk mendapatkan konteks terkini. Ia menggunakan nilai K untuk menyimpan pesan atau string dalam memori menggunakan kerangka LangChain.
Untuk mempelajari proses penggunaan jendela buffer percakapan di LangChain, cukup ikuti panduan berikut:
Langkah 1: Instal Modul
Mulai proses penggunaan jendela buffer percakapan dengan menginstal modul LangChain dengan dependensi yang diperlukan untuk membangun model percakapan:
pip instal langchain
Setelah itu, instal modul OpenAI yang dapat digunakan untuk membangun Model Bahasa Besar di LangChain:
pip instal openai
Sekarang, mengatur lingkungan OpenAI untuk membangun rantai LLM menggunakan kunci API dari akun OpenAI:
impor Anda
impor dapatkan pass
Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )
Langkah 2: Menggunakan Memori Jendela Penyangga Percakapan
Untuk menggunakan memori jendela buffer percakapan di LangChain, impor PercakapanBufferWindowMemory perpustakaan:
dari rantailang. Penyimpanan impor PercakapanBufferWindowMemoryKonfigurasikan memori menggunakan PercakapanBufferWindowMemory () metode dengan nilai k sebagai argumennya. Nilai k akan digunakan untuk menyimpan pesan terbaru dari percakapan dan kemudian mengkonfigurasi data pelatihan menggunakan variabel input dan output:
Penyimpanan = PercakapanBufferWindowMemory ( k = 1 )Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )
Uji memori dengan menelepon memuat_memori_variabel () metode untuk memulai percakapan:
Penyimpanan. memuat_memori_variabel ( { } )
Untuk mendapatkan riwayat percakapan, konfigurasikan fungsi ConversationBufferWindowMemory() menggunakan pesan_kembali argumen:
Penyimpanan = PercakapanBufferWindowMemory ( k = 1 , pesan_kembali = BENAR )Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Hai' } , { 'keluaran' : 'ada apa' } )
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'tidak banyak kamu' } , { 'keluaran' : 'tidak banyak' } )
Sekarang, panggil memori menggunakan memuat_memori_variabel () metode untuk mendapatkan respons dengan riwayat percakapan:
Penyimpanan. memuat_memori_variabel ( { } )
Langkah 3: Menggunakan Jendela Buffer dalam Rantai
Bangun rantai menggunakan OpenAI Dan Rantai Percakapan perpustakaan dan kemudian konfigurasikan memori buffer untuk menyimpan pesan terbaru dalam percakapan:
dari rantailang. rantai impor Rantai Percakapandari rantailang. llms impor OpenAI
#membangun ringkasan percakapan menggunakan beberapa parameter
percakapan_dengan_ringkasan = Rantai Percakapan (
llm = OpenAI ( suhu = 0 ) ,
#membangun buffer memori menggunakan fungsinya dengan nilai k untuk menyimpan pesan terbaru
Penyimpanan = PercakapanBufferWindowMemory ( k = 2 ) ,
#configure variabel verbose untuk mendapatkan output yang lebih mudah dibaca
bertele-tele = BENAR
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar' )
Sekarang lanjutkan percakapan dengan mengajukan pertanyaan terkait keluaran yang diberikan oleh model:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apa masalah mereka' )
Model dikonfigurasi untuk menyimpan hanya satu pesan sebelumnya yang dapat digunakan sebagai konteks:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apakah ini berjalan dengan baik' )
Mintalah solusi untuk masalah tersebut dan struktur keluaran akan terus menggeser jendela buffer dengan menghapus pesan-pesan sebelumnya:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apa solusinya' )
Sekian tentang proses penggunaan jendela buffer Percakapan LangChain.
Kesimpulan
Untuk menggunakan memori jendela buffer percakapan di LangChain, cukup instal modul dan atur lingkungan menggunakan kunci API OpenAI. Setelah itu, buat memori buffer menggunakan nilai k untuk menyimpan pesan terbaru dalam percakapan agar tetap menjaga konteksnya. Memori buffer juga dapat digunakan dengan rantai untuk memulai percakapan dengan LLM atau rantai. Panduan ini telah menguraikan proses penggunaan jendela buffer percakapan di LangChain.