Panduan ini akan mengilustrasikan proses penggunaan buffer ringkasan percakapan di LangChain.
Bagaimana Cara Menggunakan Buffer Ringkasan Percakapan di LangChain?
Percakapan dapat terdiri dari beberapa pesan yang seperti interaksi antara manusia dan mesin dan buffer dapat menyimpan pesan-pesan terbaru. Itu Ringkasan PercakapanBufferMemory perpustakaan digunakan untuk menggabungkan kedua konsep seperti menyimpan pesan terbaru dan mengekstrak ringkasannya.
Untuk mempelajari proses penggunaan buffer ringkasan percakapan di LangChain, cukup ikuti panduan berikut:
Langkah 1: Instal Modul
Pertama, instal modul LangChain menggunakan perintah pip untuk mendapatkan perpustakaan yang diperlukan:
pip instal langchain
Instal tokenizer tiktoken yang dapat digunakan untuk membagi dokumen teks menjadi potongan-potongan kecil:
pip instal tiktoken
Setelah itu, instal modul OpenAI yang dapat digunakan untuk membangun model bahasa seperti LLM dan rantai:
pip instal openai
Sekarang, mengatur lingkungan dengan mendapatkan kunci API dari akun OpenAI dan menggunakannya dalam model:
impor Andaimpor dapatkan pass
Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )
Langkah 2: Menggunakan Buffer Ringkasan Percakapan
Mulai proses penggunaan buffer ringkasan percakapan dengan mengimpor perpustakaan untuk membangun LLM menggunakan metode OpenAI():
dari rantailang. Penyimpanan impor Ringkasan PercakapanBufferMemorydari rantailang. llms impor OpenAI
llm = OpenAI ( )
Bangun memori menggunakan metode ConversationSummaryBufferMemory() lalu simpan percakapan di memori:
Penyimpanan = Ringkasan PercakapanBufferMemory ( llm = llm , max_token_limit = 10 )Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )
Sekarang, jalankan memori dengan memanggil memuat_memori_variabel () metode untuk mengekstrak pesan dari memori:
Penyimpanan. memuat_memori_variabel ( { } )
Sekarang, gunakan ringkasan buffer percakapan untuk mengonfigurasi buffer dengan membatasi jumlah pesan yang akan disimpan di buffer. Setelah itu, ekstrak ringkasan pesan-pesan berikut yang disimpan di buffer dan kemudian simpan percakapan tersebut di memori:
Penyimpanan = Ringkasan PercakapanBufferMemory (llm = llm , max_token_limit = 10 , pesan_kembali = BENAR
)
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )
Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )
Dapatkan ringkasan pesan sebelumnya yang disimpan di memori buffer menggunakan kode berikut:
pesan = Penyimpanan. obrolan_memori . pesanringkasan_sebelumnya = ''
Penyimpanan. prediksi_ringkasan_baru ( pesan , ringkasan_sebelumnya )
Langkah 3: Menggunakan Buffer Ringkasan Percakapan dalam Rantai
Bangun rantai menggunakan Rantai Percakapan() metode yang berisi nilai memori buffer untuk menyimpan pesan di dalamnya:
dari rantailang. rantai impor Rantai Percakapanpercakapan_dengan_ringkasan = Rantai Percakapan (
llm = llm ,
Penyimpanan = Ringkasan PercakapanBufferMemory ( llm = OpenAI ( ) , max_token_limit = 40 ) ,
bertele-tele = BENAR ,
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar?' )
Berikan masukan berupa teks menggunakan metode prediksi() untuk mendapatkan ringkasan percakapan:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya mengerjakan proyek NLP' )
Gunakan output dari model dan tambahkan lebih banyak data menggunakan pesan di memori buffer dan tampilkan ringkasannya:
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'ya benar! Saya sedang mengerjakan desain LLM' )
Kesimpulannya, keluarannya akan mudah dimengerti dan lebih ramah manusia serta lebih cocok untuk chatbots:
percakapan_dengan_ringkasan. meramalkan (memasukkan = 'Saya ingin menggunakan LangChain! Pernahkah Anda mendengarnya'
)
Sekian tentang penggunaan buffer ringkasan percakapan di LangChain.
Kesimpulan
Untuk menggunakan memori buffer ringkasan percakapan di LangChain, cukup instal modul atau kerangka kerja untuk mendapatkan perpustakaan yang diperlukan. Setelah perpustakaan diimpor, buat LLM atau chatbot untuk menggunakan fungsi ConverstaionSummaryBufferMemory() guna mendapatkan ringkasan percakapan. Memori buffer digunakan untuk membatasi jumlah pesan yang disimpan dalam memori yang akan digunakan untuk mengekstraksi ringkasan. Posting ini telah menguraikan proses penggunaan memori buffer ringkasan percakapan di LangChain.