Bagaimana Cara Menambahkan Status Memori dalam Rantai Menggunakan LangChain?

Bagaimana Cara Menambahkan Status Memori Dalam Rantai Menggunakan Langchain



LangChain memungkinkan pengembang untuk membangun model obrolan yang dapat melakukan percakapan dengan manusia menggunakan bahasa alami. Agar percakapan efektif, model perlu memiliki memori di mana konteks percakapan disimpan. Model LangChain dapat menyimpan pesan obrolan sebagai observasi sehingga keluarannya selalu berada dalam konteks percakapan

Panduan ini akan menggambarkan proses memuat rantai dari LangChain Hub.

Bagaimana Cara Menambahkan Status Memori dalam Rantai Menggunakan LangChain?

Status memori dapat digunakan untuk menginisialisasi rantai karena dapat merujuk pada nilai terkini yang disimpan dalam rantai yang akan digunakan saat mengembalikan keluaran. Untuk mempelajari proses penambahan status memori dalam rantai menggunakan kerangka LangChain, cukup ikuti panduan mudah ini:







Langkah 1: Instal Modul

Pertama, masuk ke proses dengan menginstal kerangka LangChain dengan dependensinya menggunakan perintah pip:



pip instal langchain



Instal juga modul OpenAI untuk mendapatkan pustakanya yang dapat digunakan untuk menambahkan status memori dalam rantai:





pip instal openai

Dapatkan kunci API dari akun OpenAI dan mengatur lingkungan menggunakannya sehingga rantai dapat mengaksesnya:



impor Anda

impor dapatkan pass

Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )

Langkah ini penting agar kode dapat berfungsi dengan baik.

Langkah 2: Impor Perpustakaan

Setelah menyiapkan lingkungan, cukup impor perpustakaan untuk menambahkan status memori seperti LLMChain, ConversationBufferMemory, dan banyak lagi:

dari rantailang. rantai impor Rantai Percakapan

dari rantailang. Penyimpanan impor PercakapanBufferMemory

dari rantailang. obrolan_model impor ObrolanOpenAI

dari rantailang. rantai . llm impor rantai LLM

dari rantailang. petunjuknya impor Templat Prompt

Langkah 3: Membangun Rantai

Sekarang, cukup buat rantai untuk LLM menggunakan metode OpenAI() dan templat perintah menggunakan kueri untuk memanggil rantai:

mengobrol = ObrolanOpenAI ( suhu = 0 )

prompt_template = 'Tulis lelucon {style}'

llm_chain = rantai LLM ( llm = mengobrol , mengingatkan = Templat Prompt. dari_template ( prompt_template ) )

llm_chain ( masukan = { 'gaya' : 'dangkal' } )

Model telah menampilkan output menggunakan model LLM seperti yang ditampilkan pada gambar di bawah:

Langkah 4: Menambahkan Status Memori

Di sini kita akan menambahkan status memori dalam rantai menggunakan metode ConversationBufferMemory() dan menjalankan rantai untuk mendapatkan 3 warna dari pelangi:

percakapan = Rantai Percakapan (

llm = mengobrol ,

Penyimpanan = PercakapanBufferMemory ( )

)

percakapan. berlari ( 'secara singkat berikan 3 warna pada pelangi' )

Model hanya menampilkan tiga warna pelangi dan konteksnya disimpan dalam memori rantai:

Di sini kita menjalankan rantai dengan perintah ambigu seperti “ 4 lainnya? ” sehingga model itu sendiri mendapatkan konteks dari memori dan menampilkan warna pelangi yang tersisa:

percakapan. berlari ( '4 lainnya?' )

Model telah melakukan hal tersebut, karena memahami konteksnya dan mengembalikan empat warna tersisa dari rangkaian pelangi:

Itu saja tentang memuat rantai dari LangChain Hub.

Kesimpulan

Untuk menambahkan memori dalam rantai menggunakan kerangka LangChain, cukup instal modul untuk menyiapkan lingkungan untuk membangun LLM. Setelah itu, impor perpustakaan yang diperlukan untuk membangun rantai di LLM dan kemudian tambahkan status memori ke dalamnya. Setelah menambahkan status memori ke rantai, cukup berikan perintah ke rantai untuk mendapatkan output dan kemudian berikan perintah lain dalam konteks yang sebelumnya untuk mendapatkan balasan yang benar. Posting ini telah menguraikan proses penambahan status memori dalam rantai menggunakan kerangka LangChain.