Panduan ini akan mengilustrasikan proses penggunaan buffer token percakapan di LangChain.
Bagaimana Cara Menggunakan Buffer Token Percakapan di LangChain?
Itu PercakapanTokenBufferMemory perpustakaan dapat diimpor dari kerangka LangChain untuk menyimpan pesan terbaru dalam memori buffer. Token dapat dikonfigurasi untuk membatasi jumlah pesan yang disimpan di buffer dan pesan sebelumnya akan dihapus secara otomatis.
Untuk mempelajari proses penggunaan buffer token percakapan di LangChain, gunakan panduan berikut:
Langkah 1: Instal Modul
Pertama, instal kerangka LangChain yang berisi semua modul yang diperlukan menggunakan perintah pip:
pip instal langchain
Sekarang, instal modul OpenAI untuk membangun LLM dan rantai menggunakan metode OpenAI():
pip instal openai
Setelah menginstal modul, cukup gunakan kunci API OpenAI untuk melakukannya mengatur lingkungan menggunakan perpustakaan os dan getpass:
impor Andaimpor dapatkan pass
Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )
Langkah 2: Menggunakan Memori Buffer Token Percakapan
Bangun LLM menggunakan metode OpenAI() setelah mengimpor PercakapanTokenBufferMemory perpustakaan dari kerangka LangChain:
dari rantailang. Penyimpanan impor PercakapanTokenBufferMemorydari rantailang. llms impor OpenAI
llm = OpenAI ( )
Konfigurasikan memori untuk mengatur token, ini akan menghapus pesan-pesan lama dan menyimpannya di memori buffer. Setelah itu, simpan pesan dari percakapan tersebut dan dapatkan pesan terbaru untuk digunakan sebagai konteks:
Penyimpanan = PercakapanTokenBufferMemory ( llm = llm , max_token_limit = 10 )Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )
Jalankan memori untuk mendapatkan data yang disimpan dalam memori buffer menggunakan metode load_memory_variables():
Penyimpanan. memuat_memori_variabel ( { } )
Langkah 3: Menggunakan Memori Buffer Token Percakapan dalam Rantai
Bangun rantai dengan mengonfigurasi Rantai Percakapan() metode dengan banyak argumen untuk menggunakan memori buffer token percakapan:
dari rantailang. rantai impor Rantai Percakapanpercakapan_dengan_ringkasan = Rantai Percakapan (
llm = llm ,
Penyimpanan = PercakapanTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
bertele-tele = BENAR ,
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar?' )
Sekarang, mulai percakapan dengan mengajukan pertanyaan menggunakan petunjuk yang ditulis dalam bahasa alami:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya mengerjakan proyek NLP' )
Dapatkan output dari data yang disimpan di memori buffer menggunakan jumlah token:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya bekerja merancang LLM' )
Buffer terus diperbarui dengan setiap masukan baru karena pesan sebelumnya dihapus secara berkala:
percakapan_dengan_ringkasan. meramalkan (memasukkan = 'LLM menggunakan LangChain! Pernahkah Anda mendengarnya'
)
Itu saja tentang penggunaan buffer token percakapan di LangChain.
Kesimpulan
Untuk menggunakan buffer token percakapan di LangChain, cukup instal modul untuk menyiapkan lingkungan menggunakan kunci API dari akun OpenAI. Setelah itu, impor pustaka ConversationTokenBufferMemory menggunakan modul LangChain untuk menyimpan percakapan di buffer. Memori buffer dapat digunakan secara berantai untuk menghapus pesan lama dengan setiap pesan baru dalam obrolan. Posting ini telah menguraikan penggunaan memori buffer token percakapan di LangChain.