Bagaimana Cara Menggunakan Buffer Ringkasan Percakapan di LangChain?

Bagaimana Cara Menggunakan Buffer Ringkasan Percakapan Di Langchain



LangChain adalah kerangka kerja dengan semua dependensi dan pustaka untuk membangun model yang dapat memahami kumpulan data dalam bahasa alami. Model ini juga dapat menghasilkan teks dalam bahasa alami atau mengekstrak data yang paling mirip berdasarkan masukan yang diberikan oleh pengguna. Chatbots atau LLM digunakan untuk membangun percakapan dengan manusia dan mengekstrak ringkasan percakapan menggunakan semua pesan.

Panduan ini akan mengilustrasikan proses penggunaan buffer ringkasan percakapan di LangChain.

Bagaimana Cara Menggunakan Buffer Ringkasan Percakapan di LangChain?

Percakapan dapat terdiri dari beberapa pesan yang seperti interaksi antara manusia dan mesin dan buffer dapat menyimpan pesan-pesan terbaru. Itu Ringkasan PercakapanBufferMemory perpustakaan digunakan untuk menggabungkan kedua konsep seperti menyimpan pesan terbaru dan mengekstrak ringkasannya.







Untuk mempelajari proses penggunaan buffer ringkasan percakapan di LangChain, cukup ikuti panduan berikut:



Langkah 1: Instal Modul

Pertama, instal modul LangChain menggunakan perintah pip untuk mendapatkan perpustakaan yang diperlukan:



pip instal langchain





Instal tokenizer tiktoken yang dapat digunakan untuk membagi dokumen teks menjadi potongan-potongan kecil:

pip instal tiktoken



Setelah itu, instal modul OpenAI yang dapat digunakan untuk membangun model bahasa seperti LLM dan rantai:

pip instal openai

Sekarang, mengatur lingkungan dengan mendapatkan kunci API dari akun OpenAI dan menggunakannya dalam model:

impor Anda
impor dapatkan pass

Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )

Langkah 2: Menggunakan Buffer Ringkasan Percakapan

Mulai proses penggunaan buffer ringkasan percakapan dengan mengimpor perpustakaan untuk membangun LLM menggunakan metode OpenAI():

dari rantailang. Penyimpanan impor Ringkasan PercakapanBufferMemory

dari rantailang. llms impor OpenAI

llm = OpenAI ( )

Bangun memori menggunakan metode ConversationSummaryBufferMemory() lalu simpan percakapan di memori:

Penyimpanan = Ringkasan PercakapanBufferMemory ( llm = llm , max_token_limit = 10 )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )

Sekarang, jalankan memori dengan memanggil memuat_memori_variabel () metode untuk mengekstrak pesan dari memori:

Penyimpanan. memuat_memori_variabel ( { } )

Sekarang, gunakan ringkasan buffer percakapan untuk mengonfigurasi buffer dengan membatasi jumlah pesan yang akan disimpan di buffer. Setelah itu, ekstrak ringkasan pesan-pesan berikut yang disimpan di buffer dan kemudian simpan percakapan tersebut di memori:

Penyimpanan = Ringkasan PercakapanBufferMemory (

llm = llm , max_token_limit = 10 , pesan_kembali = BENAR

)

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Apa kabarmu' } )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Aku Baik. Bagaimana denganmu' } , { 'keluaran' : 'tidak banyak' } )

Dapatkan ringkasan pesan sebelumnya yang disimpan di memori buffer menggunakan kode berikut:

pesan = Penyimpanan. obrolan_memori . pesan

ringkasan_sebelumnya = ''

Penyimpanan. prediksi_ringkasan_baru ( pesan , ringkasan_sebelumnya )

Langkah 3: Menggunakan Buffer Ringkasan Percakapan dalam Rantai

Bangun rantai menggunakan Rantai Percakapan() metode yang berisi nilai memori buffer untuk menyimpan pesan di dalamnya:

dari rantailang. rantai impor Rantai Percakapan

percakapan_dengan_ringkasan = Rantai Percakapan (
llm = llm ,
Penyimpanan = Ringkasan PercakapanBufferMemory ( llm = OpenAI ( ) , max_token_limit = 40 ) ,
bertele-tele = BENAR ,
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hai apa kabar?' )

Berikan masukan berupa teks menggunakan metode prediksi() untuk mendapatkan ringkasan percakapan:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Hanya mengerjakan proyek NLP' )

Gunakan output dari model dan tambahkan lebih banyak data menggunakan pesan di memori buffer dan tampilkan ringkasannya:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'ya benar! Saya sedang mengerjakan desain LLM' )

Kesimpulannya, keluarannya akan mudah dimengerti dan lebih ramah manusia serta lebih cocok untuk chatbots:

percakapan_dengan_ringkasan. meramalkan (

memasukkan = 'Saya ingin menggunakan LangChain! Pernahkah Anda mendengarnya'

)

Sekian tentang penggunaan buffer ringkasan percakapan di LangChain.

Kesimpulan

Untuk menggunakan memori buffer ringkasan percakapan di LangChain, cukup instal modul atau kerangka kerja untuk mendapatkan perpustakaan yang diperlukan. Setelah perpustakaan diimpor, buat LLM atau chatbot untuk menggunakan fungsi ConverstaionSummaryBufferMemory() guna mendapatkan ringkasan percakapan. Memori buffer digunakan untuk membatasi jumlah pesan yang disimpan dalam memori yang akan digunakan untuk mengekstraksi ringkasan. Posting ini telah menguraikan proses penggunaan memori buffer ringkasan percakapan di LangChain.