Darren Vincentio, Alfonso (2022) Fine Tuning Model Bahasa MBART50 untuk Question Answering Task dalam Bahasa Indonesia. Bachelor Thesis thesis, Universitas Multimedia Nusantara.
Abstract
Proses perolehan informasi dari suatu konteks kalimat mengkonsumsi waktu yang cukup banyak. Untuk dapat mereduksi waktu dalam perolehan suatu informasi dapat melalui pemanfaatan pre-trained language model (PLM) berbasis arsitek- tur transformer. PLM tersebut dapat di-fine-tune untuk tugas tertentu, salah sat- unya berupa question answering (QA) task. Tugas question answering umum- nya telah di-fine-tune terhadap encoder PLM seperti BERT yang bersifat extrac- tive sehingga prediksi jawaban yang dihasilkan merupakan hasil ekstrak dari kon- teks. Pendekatan yang digunakan dalam mengembangkan model bahasa yang dapat melakukan tugas untuk menjawab pertanyaan merupakan fine-tuning terhadap pre- trained model BART dengan dataset TyDiQA. Namun untuk dapat mengembalikan jawaban yang abstractive diperlukan PLM yang mampu terhadap natural language generation (NLG) seperti BART. Berdasarkan dengan fakta tersebut, penelitian ini bertujuan untuk melakukan fine-tuning terhadap NLG PLM untuk tugas abstrac- tive/generative QA khususnya BART. Sehingga hasil penelitian menunjukkan per- forma model yang telah di-fine-tuned dengan skor F1 sebesar 85,84 dan exact match (EM) 59,42.
Item Type: | Thesis (Bachelor Thesis) |
---|---|
Keywords: | Abstractive, Fine-Tuning, Language Model, Natural Language Gen- eration, Question Answering viii Fine Tuning Model..., Alfonso Darren Vincentio, Universitas Multimedia Nusantara |
Subjects: | 400 Language > 400 Language > 400 Language |
Divisions: | Faculty of Engineering & Informatics > Informatics |
SWORD Depositor: | Administrator UMN Library |
Depositing User: | Administrator UMN Library |
Date Deposited: | 01 Dec 2022 02:49 |
Last Modified: | 22 Aug 2023 07:16 |
URI: | https://kc.umn.ac.id/id/eprint/20321 |
Actions (login required)
View Item |