Panduan ini akan menggambarkan proses memuat rantai dari LangChain Hub.
Bagaimana Cara Menambahkan Status Memori dalam Rantai Menggunakan LangChain?
Status memori dapat digunakan untuk menginisialisasi rantai karena dapat merujuk pada nilai terkini yang disimpan dalam rantai yang akan digunakan saat mengembalikan keluaran. Untuk mempelajari proses penambahan status memori dalam rantai menggunakan kerangka LangChain, cukup ikuti panduan mudah ini:
Langkah 1: Instal Modul
Pertama, masuk ke proses dengan menginstal kerangka LangChain dengan dependensinya menggunakan perintah pip:
pip instal langchain
Instal juga modul OpenAI untuk mendapatkan pustakanya yang dapat digunakan untuk menambahkan status memori dalam rantai:
pip instal openai
Dapatkan kunci API dari akun OpenAI dan mengatur lingkungan menggunakannya sehingga rantai dapat mengaksesnya:
impor Anda
impor dapatkan pass
Anda . sekitar [ 'OPENAI_API_KEY' ] = dapatkan pass . dapatkan pass ( 'Kunci API OpenAI:' )
Langkah ini penting agar kode dapat berfungsi dengan baik.
Langkah 2: Impor Perpustakaan
Setelah menyiapkan lingkungan, cukup impor perpustakaan untuk menambahkan status memori seperti LLMChain, ConversationBufferMemory, dan banyak lagi:
dari rantailang. rantai impor Rantai Percakapandari rantailang. Penyimpanan impor PercakapanBufferMemory
dari rantailang. obrolan_model impor ObrolanOpenAI
dari rantailang. rantai . llm impor rantai LLM
dari rantailang. petunjuknya impor Templat Prompt
Langkah 3: Membangun Rantai
Sekarang, cukup buat rantai untuk LLM menggunakan metode OpenAI() dan templat perintah menggunakan kueri untuk memanggil rantai:
mengobrol = ObrolanOpenAI ( suhu = 0 )prompt_template = 'Tulis lelucon {style}'
llm_chain = rantai LLM ( llm = mengobrol , mengingatkan = Templat Prompt. dari_template ( prompt_template ) )
llm_chain ( masukan = { 'gaya' : 'dangkal' } )
Model telah menampilkan output menggunakan model LLM seperti yang ditampilkan pada gambar di bawah:
Langkah 4: Menambahkan Status Memori
Di sini kita akan menambahkan status memori dalam rantai menggunakan metode ConversationBufferMemory() dan menjalankan rantai untuk mendapatkan 3 warna dari pelangi:
percakapan = Rantai Percakapan (llm = mengobrol ,
Penyimpanan = PercakapanBufferMemory ( )
)
percakapan. berlari ( 'secara singkat berikan 3 warna pada pelangi' )
Model hanya menampilkan tiga warna pelangi dan konteksnya disimpan dalam memori rantai:
Di sini kita menjalankan rantai dengan perintah ambigu seperti “ 4 lainnya? ” sehingga model itu sendiri mendapatkan konteks dari memori dan menampilkan warna pelangi yang tersisa:
percakapan. berlari ( '4 lainnya?' )Model telah melakukan hal tersebut, karena memahami konteksnya dan mengembalikan empat warna tersisa dari rangkaian pelangi:
Itu saja tentang memuat rantai dari LangChain Hub.
Kesimpulan
Untuk menambahkan memori dalam rantai menggunakan kerangka LangChain, cukup instal modul untuk menyiapkan lingkungan untuk membangun LLM. Setelah itu, impor perpustakaan yang diperlukan untuk membangun rantai di LLM dan kemudian tambahkan status memori ke dalamnya. Setelah menambahkan status memori ke rantai, cukup berikan perintah ke rantai untuk mendapatkan output dan kemudian berikan perintah lain dalam konteks yang sebelumnya untuk mendapatkan balasan yang benar. Posting ini telah menguraikan proses penambahan status memori dalam rantai menggunakan kerangka LangChain.