Bagaimana Cara Menggunakan Jendela Buffer Percakapan di LangChain?

Bagaimana Cara Menggunakan Jendela Buffer Percakapan Di Langchain



LangChain adalah kerangka kerja yang dapat digunakan dalam notebook Python untuk melatih model bahasa atau chatbots menggunakan model pembelajaran mesin. Model bahasa ini digunakan untuk melakukan percakapan dengan manusia dalam bahasa aslinya setelah melatih mereka dalam bahasa mirip manusia. Posting ini akan mengilustrasikan proses penggunaan jendela buffer percakapan di LangChain.

Bagaimana Cara Menggunakan Jendela Buffer Percakapan di LangChain?

Jendela buffer percakapan digunakan untuk menyimpan pesan percakapan terbaru di memori untuk mendapatkan konteks terkini. Ia menggunakan nilai K untuk menyimpan pesan atau string dalam memori menggunakan kerangka LangChain.

Untuk mempelajari proses penggunaan jendela buffer percakapan di LangChain, cukup ikuti panduan berikut:







Langkah 1: Instal Modul

Mulai proses penggunaan jendela buffer percakapan dengan menginstal modul LangChain dengan dependensi yang diperlukan untuk membangun model percakapan:



pip instal langchain



Setelah itu, instal modul OpenAI yang dapat digunakan untuk membangun Model Bahasa Besar di LangChain:





pip instal openai

Sekarang, mengatur lingkungan OpenAI untuk membangun rantai LLM menggunakan kunci API dari akun OpenAI:



impor Anda
impor dapatkan pass

Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )

Langkah 2: Menggunakan Memori Jendela Penyangga Percakapan

Untuk menggunakan memori jendela buffer percakapan di LangChain, impor PercakapanBufferWindowMemory perpustakaan:

dari rantailang. Penyimpanan impor PercakapanBufferWindowMemory

Konfigurasikan memori menggunakan PercakapanBufferWindowMemory () metode dengan nilai k sebagai argumennya. Nilai k akan digunakan untuk menyimpan pesan terbaru dari percakapan dan kemudian mengkonfigurasi data pelatihan menggunakan variabel input dan output:

Penyimpanan = PercakapanBufferWindowMemory ( k = 1 )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )

Uji memori dengan menelepon memuat_memori_variabel () metode untuk memulai percakapan:

Penyimpanan. memuat_memori_variabel ( { } )

Untuk mendapatkan riwayat percakapan, konfigurasikan fungsi ConversationBufferWindowMemory() menggunakan pesan_kembali argumen:

Penyimpanan = PercakapanBufferWindowMemory ( k = 1 , pesan_kembali = BENAR )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Hai' } , { 'keluaran' : 'ada apa' } )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'tidak banyak kamu' } , { 'keluaran' : 'tidak banyak' } )

Sekarang, panggil memori menggunakan memuat_memori_variabel () metode untuk mendapatkan respons dengan riwayat percakapan:

Penyimpanan. memuat_memori_variabel ( { } )

Langkah 3: Menggunakan Jendela Buffer dalam Rantai

Bangun rantai menggunakan OpenAI Dan Rantai Percakapan perpustakaan dan kemudian konfigurasikan memori buffer untuk menyimpan pesan terbaru dalam percakapan:

dari rantailang. rantai impor Rantai Percakapan
dari rantailang. llms impor OpenAI
#membangun ringkasan percakapan menggunakan beberapa parameter
percakapan_dengan_ringkasan = Rantai Percakapan (
llm = OpenAI ( suhu = 0 ) ,
#membangun buffer memori menggunakan fungsinya dengan nilai k untuk menyimpan pesan terbaru
Penyimpanan = PercakapanBufferWindowMemory ( k = 2 ) ,
#configure variabel verbose untuk mendapatkan output yang lebih mudah dibaca
bertele-tele = BENAR
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar' )

Sekarang lanjutkan percakapan dengan mengajukan pertanyaan terkait keluaran yang diberikan oleh model:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apa masalah mereka' )

Model dikonfigurasi untuk menyimpan hanya satu pesan sebelumnya yang dapat digunakan sebagai konteks:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apakah ini berjalan dengan baik' )

Mintalah solusi untuk masalah tersebut dan struktur keluaran akan terus menggeser jendela buffer dengan menghapus pesan-pesan sebelumnya:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Apa solusinya' )

Sekian tentang proses penggunaan jendela buffer Percakapan LangChain.

Kesimpulan

Untuk menggunakan memori jendela buffer percakapan di LangChain, cukup instal modul dan atur lingkungan menggunakan kunci API OpenAI. Setelah itu, buat memori buffer menggunakan nilai k untuk menyimpan pesan terbaru dalam percakapan agar tetap menjaga konteksnya. Memori buffer juga dapat digunakan dengan rantai untuk memulai percakapan dengan LLM atau rantai. Panduan ini telah menguraikan proses penggunaan jendela buffer percakapan di LangChain.