Bagaimana Cara Menggunakan Ringkasan Percakapan di LangChain?

Bagaimana Cara Menggunakan Ringkasan Percakapan Di Langchain



LangChain adalah kerangka kerja yang dapat digunakan untuk membangun model bahasa menggunakan sejumlah besar kumpulan data pelatihan yang dibangun dalam bahasa alami. LangChain menyediakan perpustakaan dan dependensi yang dapat digunakan untuk membangun dan mengelola chatbots dan model bahasa seperti LLM. Model ini sebagian besar dianggap sebagai mesin untuk melakukan percakapan atau mengekstrak informasi berdasarkan perintah yang ditulis dalam bahasa mirip manusia.

Panduan ini akan mengilustrasikan proses penggunaan ringkasan percakapan di LangChain.

Bagaimana Cara Menggunakan Ringkasan Percakapan di LangChain?

LangChain menyediakan perpustakaan seperti ConversationSummaryMemory yang dapat mengekstrak ringkasan lengkap dari obrolan atau percakapan. Dapat digunakan untuk mendapatkan informasi utama percakapan tanpa harus membaca semua pesan dan teks yang tersedia dalam obrolan.







Untuk mempelajari proses penggunaan ringkasan percakapan di LangChain, cukup ikuti langkah-langkah berikut:



Langkah 1: Instal Modul

Pertama, instal kerangka LangChain untuk mendapatkan dependensi atau pustakanya menggunakan kode berikut:



pip instal langchain





Sekarang, instal modul OpenAI setelah menginstal LangChain menggunakan perintah pip:

pip instal openai



Setelah menginstal modul, cukup mengatur lingkungan menggunakan kode berikut setelah mendapatkan kunci API dari akun OpenAI:

impor Anda

impor dapatkan pass

Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )

Langkah 2: Menggunakan Ringkasan Percakapan

Ikuti proses penggunaan ringkasan percakapan dengan mengimpor perpustakaan dari LangChain:

dari rantailang. Penyimpanan impor Memori Ringkasan Percakapan , Riwayat Pesan Obrolan

dari rantailang. llms impor OpenAI

Konfigurasikan memori model menggunakan metode ConversationSummaryMemory() dan OpenAI() dan simpan data di dalamnya:

Penyimpanan = Memori Ringkasan Percakapan ( llm = OpenAI ( suhu = 0 ) )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Hai' } )

Jalankan memori dengan memanggil memuat_memori_variabel() metode untuk mengekstrak data dari memori:

Penyimpanan. memuat_memori_variabel ( { } )

Pengguna juga bisa mendapatkan data dalam bentuk percakapan seperti setiap entitas dengan pesan terpisah:

Penyimpanan = Memori Ringkasan Percakapan ( llm = OpenAI ( suhu = 0 ) , pesan_kembali = BENAR )

Penyimpanan. simpan_konteks ( { 'memasukkan' : 'Halo' } , { 'keluaran' : 'Hai apa kabar' } )

Untuk mendapatkan pesan AI dan manusia secara terpisah, jalankan metode load_memory_variables():

Penyimpanan. memuat_memori_variabel ( { } )

Simpan ringkasan percakapan di memori lalu jalankan memori untuk menampilkan ringkasan obrolan/percakapan di layar:

pesan = Penyimpanan. obrolan_memori . pesan

ringkasan_sebelumnya = ''

Penyimpanan. prediksi_ringkasan_baru ( pesan , ringkasan_sebelumnya )

Langkah 3: Menggunakan Ringkasan Percakapan Dengan Pesan yang Ada

Pengguna juga bisa mendapatkan ringkasan percakapan yang ada di luar kelas atau obrolan menggunakan pesan ChatMessageHistory(). Pesan-pesan ini dapat ditambahkan ke memori sehingga secara otomatis dapat menghasilkan ringkasan percakapan lengkap:

sejarah = Riwayat Pesan Obrolan ( )

sejarah. tambahkan_pesan_pengguna ( 'Hai' )

sejarah. tambahkan_ai_message ( 'Hai, yang di sana!' )

Bangun model seperti LLM menggunakan metode OpenAI() untuk mengeksekusi pesan yang ada di obrolan_memori variabel:

Penyimpanan = Memori Ringkasan Percakapan. dari_pesan (
llm = OpenAI ( suhu = 0 ) ,
obrolan_memori = sejarah ,
pesan_kembali = BENAR
)

Jalankan memori menggunakan buffer untuk mendapatkan ringkasan pesan yang ada:

Penyimpanan. penyangga

Jalankan kode berikut untuk membangun LLM dengan mengonfigurasi memori buffer menggunakan pesan obrolan:

Penyimpanan = Memori Ringkasan Percakapan (
llm = OpenAI ( suhu = 0 ) ,
penyangga = '''Manusia menanyakan mesin yang bertanya tentang dirinya
Sistem menjawab bahwa AI dibuat untuk kebaikan karena dapat membantu manusia mencapai potensinya'''
,
obrolan_memori = sejarah ,
pesan_kembali = BENAR
)

Langkah 4: Menggunakan Ringkasan Percakapan dalam Rantai

Langkah selanjutnya menjelaskan proses penggunaan ringkasan percakapan dalam rantai menggunakan LLM:

dari rantailang. llms impor OpenAI
dari rantailang. rantai impor Rantai Percakapan
llm = OpenAI ( suhu = 0 )
percakapan_dengan_ringkasan = Rantai Percakapan (
llm = llm ,
Penyimpanan = Memori Ringkasan Percakapan ( llm = OpenAI ( ) ) ,
bertele-tele = BENAR
)
percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Halo apa kabar' )

Di sini kami mulai membangun rantai dengan memulai percakapan dengan pertanyaan yang sopan:

Sekarang masuklah ke dalam percakapan dengan menanyakan lebih banyak tentang keluaran terakhir untuk memperluasnya:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Ceritakan padaku lebih banyak tentang hal itu!' )

Model tersebut telah menjelaskan pesan terakhir dengan pengenalan mendetail tentang teknologi AI atau chatbot:

Ekstrak poin menarik dari keluaran sebelumnya untuk mengarahkan percakapan ke arah tertentu:

percakapan_dengan_ringkasan. meramalkan ( memasukkan = 'Luar biasa. Seberapa bagus proyek ini?' )

Di sini kami mendapatkan jawaban terperinci dari bot menggunakan perpustakaan memori ringkasan percakapan:

Sekian tentang penggunaan ringkasan percakapan di LangChain.

Kesimpulan

Untuk menggunakan pesan ringkasan percakapan di LangChain, cukup instal modul dan kerangka kerja yang diperlukan untuk menyiapkan lingkungan. Setelah lingkungan diatur, impor Memori Ringkasan Percakapan perpustakaan untuk membangun LLM menggunakan metode OpenAI(). Setelah itu, cukup gunakan ringkasan percakapan untuk mengekstrak keluaran detail dari model yang merupakan ringkasan percakapan sebelumnya. Panduan ini telah menguraikan proses penggunaan memori ringkasan percakapan menggunakan modul LangChain.