Cara Menggunakan Transformator Wajah Memeluk dengan Python

Cara Menggunakan Transformator Wajah Memeluk Dengan Python



Hugging Face diakui sebagai komunitas Kecerdasan Buatan yang bersifat open-source dan menyediakan semua kerangka kerja, alat, model, dan arsitektur penting yang membantu berkomunikasi atau berlatih dengan model bahasa (pemrosesan bahasa alami). Transformator Hugging Face adalah arsitektur bahasa yang membantu penyediaan model pemrosesan bahasa pra-terlatih dengan Python. Transformator dari Hugging Face ini menyediakan berbagai kumpulan data dan API berlapis yang membantu pemrogram untuk dengan mudah membuat interaksi dengan model yang telah dilatih sebelumnya dengan paket pustaka mereka.

Sintaksis

Transformator Hugging Face yang canggih memiliki beragam model pra-pelatihan. Model-model ini dapat diterapkan pada berbagai model bahasa yang tercantum di bawah ini:

  • Transformator ini dapat memproses teks dalam bahasa yang berbeda dan dapat melakukan tugas yang berbeda pada teks seperti klasifikasi teks, pertanyaan dan jawaban, terjemahan teks ke bahasa yang berbeda, dan pembuatan teks.
  • Kami juga dapat menggunakan transformer ini di Hugging Face untuk tugas klasifikasi berbasis penglihatan seperti deteksi objek dan tugas berbasis ucapan, mis. klasifikasi pembicara atau pengenalan/pengenalan ucapan.

Transformator dari Hugging Face termasuk TensorFlow, PyTorch, ONNX, dll. Untuk sintaks penginstalan paket untuk transformer ini, kami menggunakan perintah berikut:







$ pip instal transformer

Sekarang, kami mencoba mencoba berbagai contoh di mana kami menggunakan model dari transformator Hugging Face untuk tugas pemrosesan bahasa yang berbeda.



Contoh 1: Pembuatan Teks Menggunakan Transformator Wajah Pelukan

Contoh ini mencakup metode untuk menggunakan transformer untuk pembuatan teks. Untuk pembuatan teks, kami menggunakan dan mengimpor model pembuatan teks pra-pelatihan dari transformator. Trafo memiliki perpustakaan dasar yang dikenal sebagai 'saluran pipa'. Pipa ini bekerja untuk transformer dengan melakukan semua pemrosesan pra dan pasca yang diperlukan pada data yang diperlukan untuk dimasukkan ke model pra-pelatihan sebagai input.



Kami mulai mengkodekan contoh dengan terlebih dahulu menginstal paket pustaka dari 'transformer' di terminal Python. Untuk mengunduh paket trafo, gunakan 'instalasi pip dengan nama paket, yaitu trafo'. Setelah kami mengunduh dan menginstal paket trafo, kami melanjutkan dengan mengimpor paket 'pipelines' dari trafo. Pipeline digunakan untuk memproses data sebelum diumpankan ke model.





Kami mengimpor 'pprint' dari pprint. Paket ini diinstal untuk mencetak keluaran dari model pembuatan teks dalam bentuk yang lebih mudah dibaca, terstruktur, dan terformat dengan baik. Sebaliknya, jika kita menggunakan fungsi “print()”, ini menampilkan output dalam satu baris yang tidak terformat dengan baik dan mudah dibaca. Model pembuatan teks membantu menghasilkan atau menambahkan lebih banyak teks ke teks yang awalnya kami berikan ke model sebagai input.

Untuk memanggil model terlatih dari transformator, kami menggunakan fungsi pipeline() yang memiliki dua parameter sebagai inputnya. Yang pertama menentukan nama tugas yang dipilih dan yang kedua adalah nama model dari transformator. Dalam skenario ini, tugas yang dipilih adalah pembuatan teks. Model pra-terlatih yang kami gunakan dari trafo adalah 'gpt'.



Setelah menggunakan fungsi pipa, kami memutuskan input yang ingin kami berikan ke model kami untuk menghasilkan teks tambahan untuknya. Kemudian, kami meneruskan input ini ke fungsi “task_pipeline()”. Fungsi ini membuat output untuk model dengan memasukkan input, panjang maksimum output, dan jumlah kalimat yang harus dimiliki output sebagai parameter inputnya.

Kami memberikan masukan sebagai 'Ini adalah model bahasa'. Kami menetapkan panjang maksimum keluaran menjadi '30' dan jumlah kalimat dalam keluaran menjadi '3'. Sekarang, kita cukup memanggil fungsi pprint() untuk menampilkan hasil yang dihasilkan dari model kita.

!pip instal transformer

dari pipa impor transformer
dari pprint impor pprint

SELECTED_TASK = 'pembuatan teks'
MODEL = 'gpt2'
tugas = pipa(f'{SELECTED_TASK}', model = MODEL)

INPUT = 'Ini adalah model bahasa'
OUT_put = tugas(INPUT, max_length = 30, num_return_sequences=3)

cetak(OUT_put)

Dari cuplikan dan output kode yang disebutkan sebelumnya, kita dapat melihat bahwa model menghasilkan informasi/teks tambahan yang relevan dengan input yang kita masukkan ke dalamnya.

Contoh 2: Klasifikasi Teks Menggunakan Pipa dari Transformers

Contoh sebelumnya mencakup metode untuk menghasilkan teks tambahan yang relevan dengan input menggunakan transformer dan saluran paketnya. Contoh ini menunjukkan cara melakukan klasifikasi teks dengan pipeline. Klasifikasi teks adalah proses mengidentifikasi input yang dimasukkan ke model sebagai anggota kelas tertentu, mis. positif atau negatif.

Kami pertama-tama mengimpor pipa dari transformer. Kemudian, kita memanggil fungsi “pipeline()”. Kami meneruskan nama model yang, dalam kasus kami, adalah 'klasifikasi teks' ke parameternya. Setelah model ditentukan menggunakan pipa, sekarang kita dapat menamainya sebagai 'classifier'. Sampai saat ini, model default untuk klasifikasi teks diunduh ke mesin host kami. Sekarang, kita dapat menggunakan model ini untuk tugas kita.

Jadi, impor Panda sebagai 'pd'. Kami ingin mengimpor paket ini karena kami ingin mencetak keluaran dari model dalam bentuk DataFrame. Sekarang, kita tentukan teks yang ingin kita berikan ke model kita sebagai masukan untuk mengklasifikasikannya sebagai kalimat positif atau negatif. Kami menyetel teks sebagai 'Saya orang baik'. Kami meneruskan teks ini ke model classifier() yang baru saja kami buat dalam contoh ini dan menyimpan hasilnya dalam variabel 'output'.

Untuk menampilkan keluaran, kami memanggil awalan Pandas, yaitu pd sebagai '.Dataframe()' dan meneruskan keluaran dari model pengklasifikasi ke fungsi ini. Sekarang menampilkan hasil dari model classifier seperti yang ditunjukkan pada potongan output berikut. Model pengklasifikasi kami mengklasifikasikan teks sebagai kelas positif.

!pip instal transformer
dari pipa impor transformer
impor panda sebagai pd
classifier = pipeline('teks-klasifikasi',model = 'textattack/distilbert-base-uncased-CoLA')
teks = 'saya orang baik'
hasil = pengklasifikasi(teks)
cetak(hasil)
df = pd.DataFrame(hasil)

Kesimpulan

Panduan ini mencakup arsitektur transformator dari Hugging Face. Kami membahas perpustakaan 'saluran pipa' dari transformator Hugging Face. Kemudian, dengan bantuan library ini, kami menggunakan model transformer terlatih untuk tugas pembuatan dan klasifikasi teks.