Fine Tuning Model Bahasa MBART50 untuk Question Answering Task dalam Bahasa Indonesia

Darren Vincentio, Alfonso (2022) Fine Tuning Model Bahasa MBART50 untuk Question Answering Task dalam Bahasa Indonesia. Bachelor Thesis thesis, Universitas Multimedia Nusantara.

[img] Text
HALAMAN_AWAL.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB)
[img]
Preview
Text
DAFTAR_PUSTAKA.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (322kB) | Preview
[img]
Preview
Text
BAB_I.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (326kB) | Preview
[img]
Preview
Text
BAB_II.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img]
Preview
Text
BAB_III.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (441kB) | Preview
[img] Text
BAB_IV.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (4MB)
[img]
Preview
Text
BAB_V.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (315kB) | Preview
[img] Text
LAMPIRAN.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (664kB)

Abstract

Proses perolehan informasi dari suatu konteks kalimat mengkonsumsi waktu yang cukup banyak. Untuk dapat mereduksi waktu dalam perolehan suatu informasi dapat melalui pemanfaatan pre-trained language model (PLM) berbasis arsitek- tur transformer. PLM tersebut dapat di-fine-tune untuk tugas tertentu, salah sat- unya berupa question answering (QA) task. Tugas question answering umum- nya telah di-fine-tune terhadap encoder PLM seperti BERT yang bersifat extrac- tive sehingga prediksi jawaban yang dihasilkan merupakan hasil ekstrak dari kon- teks. Pendekatan yang digunakan dalam mengembangkan model bahasa yang dapat melakukan tugas untuk menjawab pertanyaan merupakan fine-tuning terhadap pre- trained model BART dengan dataset TyDiQA. Namun untuk dapat mengembalikan jawaban yang abstractive diperlukan PLM yang mampu terhadap natural language generation (NLG) seperti BART. Berdasarkan dengan fakta tersebut, penelitian ini bertujuan untuk melakukan fine-tuning terhadap NLG PLM untuk tugas abstrac- tive/generative QA khususnya BART. Sehingga hasil penelitian menunjukkan per- forma model yang telah di-fine-tuned dengan skor F1 sebesar 85,84 dan exact match (EM) 59,42.

Item Type: Thesis (Bachelor Thesis)
Keywords: Abstractive, Fine-Tuning, Language Model, Natural Language Gen- eration, Question Answering viii Fine Tuning Model..., Alfonso Darren Vincentio, Universitas Multimedia Nusantara
Subjects: 400 Language > 400 Language > 400 Language
Divisions: Faculty of Engineering & Informatics > Informatics
SWORD Depositor: Administrator UMN Library
Depositing User: Administrator UMN Library
Date Deposited: 01 Dec 2022 02:49
Last Modified: 22 Aug 2023 07:16
URI: https://kc.umn.ac.id/id/eprint/20321

Actions (login required)

View Item View Item