Cara Menggunakan Fungsi LangChain LLMChain dengan Python

Cara Menggunakan Fungsi Langchain Llmchain Dengan Python



LangChain memiliki banyak sekali modul untuk membuat aplikasi model bahasa. Aplikasi dapat dibuat lebih rumit dengan menggabungkan modul, atau dibuat lebih sederhana dengan menggunakan satu modul. Memanggil LLM pada masukan tertentu adalah komponen LangChain yang paling penting.

Rantai tidak hanya berfungsi untuk satu panggilan LLM; mereka adalah kumpulan panggilan, baik ke LLM atau utilitas lain. Rantai ujung ke ujung untuk aplikasi yang banyak digunakan disediakan oleh LangChain bersama dengan API rantai standar dan berbagai integrasi alat.

Fleksibilitas dan kemampuan untuk menautkan beberapa elemen ke dalam satu kesatuan mungkin berguna saat kita ingin merancang rangkaian yang menerima input pengguna, menyiapkannya menggunakan PromptTemplate, lalu mengirimkan hasil yang dibuat ke LLM.







Artikel ini membantu Anda memahami penggunaan fungsi LLMchain LangChain di Python.



Contoh: Cara Menggunakan Fungsi LLMchain di LangChain

Kami berbicara tentang apa itu rantai. Sekarang, kita akan melihat demonstrasi praktis dari rangkaian ini yang diimplementasikan dalam skrip Python. Dalam contoh ini, kami menggunakan rantai LangChain paling dasar yaitu LLMchain. Ini berisi PromptTemplate dan LLM, dan menyatukannya untuk menghasilkan keluaran.



Untuk mulai mengimplementasikan konsep, kita harus menginstal beberapa library yang diperlukan yang tidak termasuk dalam library standar Python. Pustaka yang perlu kita instal adalah LangChain dan OpenAI. Kami menginstal perpustakaan LangChain karena kami perlu menggunakan modul LLMchain serta PromptTemplate. Pustaka OpenAI memungkinkan kita menggunakan model OpenAI untuk memprediksi output, yaitu GPT-3.





Untuk menginstal pustaka LangChain, jalankan perintah berikut di terminal:

$ pip instal langchain

Instal pustaka OpenAI dengan perintah berikut:



$ pip instal openai

Setelah instalasi selesai, kita dapat mulai mengerjakan proyek utama.

dari langchain. prompt impor PromptTemplate

dari langchain. llms impor OpenAI

impor Anda

Anda . sekitar [ 'OPENAI_API_KEY' ] = 'sk-KUNCI API ANDA'

Proyek utama dimulai dengan mengimpor modul yang diperlukan. Jadi, pertama-tama kita mengimpor PromptTemplate dari pustaka “langchain.prompts”. Kemudian, kami mengimpor OpenAI dari perpustakaan 'langchain.llms'. Selanjutnya, kami mengimpor 'os' untuk mengatur variabel lingkungan.

Awalnya, kami menetapkan kunci OpenAI API sebagai variabel lingkungan. Variabel lingkungan adalah variabel yang terdiri dari nama dan nilai dan diatur pada sistem operasi kami. 'os.environ' adalah objek yang digunakan untuk memetakan variabel lingkungan. Jadi, kami menyebutnya 'os.environ'. Nama yang kami tetapkan untuk kunci API adalah OPENAI_API_KEY. Kami kemudian menetapkan kunci API sebagai nilainya. Kunci API unik untuk setiap pengguna. Jadi, saat Anda mempraktikkan skrip kode ini, tulis kunci API rahasia Anda.

lm = OpenAI ( suhu = 0,9 )

mengingatkan = PromptTemplate (

input_variabel = [ 'produk' ] ,

templat = 'Apa nama merek yang menjual {produk}?' ,

)

Sekarang setelah kunci disetel sebagai variabel lingkungan, kami menginisialisasi pembungkus. Setel suhu untuk model OpenAI GPT. Temperatur adalah karakteristik yang membantu kita menentukan seberapa tak terduga responsnya. Semakin tinggi nilai suhu, semakin tidak menentu tanggapannya. Kami mengatur nilai suhu menjadi 0,9 di sini. Dengan demikian, kami mendapatkan hasil yang paling acak.

Kemudian, kami menginisialisasi kelas PromptTemplate. Saat kami menggunakan LLM, kami membuat prompt dari input yang diambil dari pengguna dan kemudian meneruskannya ke LLM daripada mengirimkan input langsung ke LLM yang memerlukan pengkodean keras (prompt adalah input yang kami ambil dari pengguna dan di mana model AI yang ditentukan harus membuat respons). Jadi, kami menginisialisasi PromptTemplate. Kemudian, di dalam kurung kurawal, kita mendefinisikan input_variable sebagai 'Produk' dan teks templatnya adalah 'Nama merek apa yang menjual {produk}?' Input pengguna memberi tahu apa yang dilakukan merek. Kemudian, itu memformat prompt berdasarkan informasi ini.

dari langchain. rantai impor Rantai LLM

rantai = Rantai LLM ( lm = lm , mengingatkan = mengingatkan )

Sekarang PromptTemplate kita sudah diformat, langkah selanjutnya adalah membuat LLMchain. Pertama, impor modul LLMchain dari pustaka “langchain.chain”. Kemudian, kami membuat rantai dengan memanggil fungsi LLMchain() yang menerima input pengguna dan memformat prompt dengannya. Terakhir, mengirimkan respons ke LLM. Jadi, ini menghubungkan PromptTemplate dan LLM.

mencetak ( rantai. berlari ( 'perlengkapan seni' ) )

Untuk mengeksekusi rantai, kita memanggil metode chain.run() dan memberikan input pengguna sebagai parameter yang didefinisikan sebagai 'Perlengkapan Seni'. Kemudian, kami meneruskan metode ini ke fungsi Python print() untuk menampilkan hasil prediksi di konsol Python.

Model AI membaca prompt dan membuat respons berdasarkan itu.

Karena kami diminta menyebutkan nama merek yang menjual perlengkapan seni, prediksi nama model AI dapat dilihat pada cuplikan berikut:

Contoh ini menunjukkan kepada kita LLMchaining ketika satu variabel input disediakan. Ini juga dimungkinkan saat menggunakan banyak variabel. Untuk itu, kita hanya perlu membuat kamus variabel untuk memasukkan semuanya. Mari kita lihat cara kerjanya:

dari langchain. prompt impor PromptTemplate

dari langchain. llms impor OpenAI

impor Anda

Anda . sekitar [ 'OPENAI_API_KEY' ] = 'sk- KUNCI-API-Anda”

llm = OpenAI(suhu=0,9)

prompt = PromptTemplate(

variabel_masukan=['
Merek ', ' Produk '],

templat='
Apa yang akan menjadi nama { Merek } yang menjual { Produk } ? ',

)

dari langchain.chains impor LLMChain

rantai = LLMChain(llm=llm, prompt=prompt)

cetak(rantai.run({

'Merek': '
Perlengkapan seni ',

'Produk': '
warna '

}))

Kode berjalan sama dengan contoh sebelumnya, kecuali kita harus meneruskan dua variabel di kelas template prompt. Jadi, buat kamus input_variables. Tanda kurung panjang mewakili kamus. Di sini, kami memiliki dua variabel – “Merek” dan “Produk” – yang dipisahkan oleh koma. Sekarang, teks template yang kami sediakan adalah “Apa nama {Brand} yang menjual {Product}?” Dengan demikian, model AI memprediksi nama yang berfokus pada dua variabel masukan tersebut.

Kemudian, kami membuat LLMchain yang memformat input pengguna dengan prompt untuk mengirimkan respons ke LLM. Untuk menjalankan rantai ini, kami menggunakan metode chain.run() dan meneruskan kamus variabel dengan input pengguna sebagai 'Merek': 'Perlengkapan seni' dan 'Produk' sebagai 'Warna'. Kemudian, kami meneruskan metode ini ke fungsi Python print() untuk menampilkan respons yang diperoleh.

Gambar keluaran menunjukkan hasil yang diprediksi:

Kesimpulan

Rantai adalah blok bangunan LangChain. Artikel ini membahas konsep penggunaan LLMchain di LangChain. Kami memperkenalkan LLMchain dan menggambarkan kebutuhan untuk mempekerjakan mereka dalam proyek Python. Kemudian, kami melakukan ilustrasi praktis yang mendemonstrasikan penerapan LLMchain dengan menghubungkan PromptTemplate dan LLM. Anda dapat membuat rantai ini dengan satu variabel input serta beberapa variabel yang disediakan pengguna. Tanggapan yang dihasilkan dari model GPT juga disediakan.