Implementasi Model Neural Network IndoBERT untuk Klasifikasi Berita Ddifabel

Wijaya, Albert (2021) Implementasi Model Neural Network IndoBERT untuk Klasifikasi Berita Ddifabel. Bachelor Thesis thesis, Universitas Multimedia Nusantara.

[img] Text
HALAMAN_AWAL.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB)
[img]
Preview
Text
DAFTAR_PUSTAKA.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img]
Preview
Text
BAB_I.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img]
Preview
Text
BAB_II.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img]
Preview
Text
BAB_III.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img] Text
BAB_IV.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB)
[img]
Preview
Text
BAB_V.pdf
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB) | Preview
[img] Text
LAMPIRAN.pdf
Restricted to Registered users only
Available under License Creative Commons Attribution Non-commercial Share Alike.

Download (1MB)

Abstract

Kurangnya perhatian terhadap penyandang disabilitas menjadi masalah yang perlu diatasi. Salah satu cara untuk memperbaiki perhatian masyarakat adalah dengan menambah wawasan dengan membaca berita. Klasifikasi berita yang banyak membutuhkan waktu dan tenaga yang banyak. Oleh karena itu, dibutuhkan aplikasi yang dapat mengategorikan berita disabilitas dengan cepat dan akurat. Salah satu cara dapat melakukan metode pembelajaran mesin. Metode pre-training BERT sudah dibuktikan dapat melakukan pembelajaran mesin yang berhubungan dengan data teks. IndoBERT sudah dibuktikan mampu memproses data berbahasa Indonesia lebih baik dibandingkan BERT atau multi-lingual BERT. Penelitian ini berisi proses pengumpulan data, preprocessing data, dan IndoBERT fine-tuning. Dilakukan juga proses back-translation untuk augmentasi data training. Pada proses IndoBERT fine-tuning, diuji hyperparameter dari optimizer ADAM yaitu learning rate 2e-5, 3e-5, dan 5e-5; epsilon 1e-1, 1e-2, 1e-3, 1e-4, 1e-5, 1e-6, dan 1e-7; dan weight decay 1e-1, 1e-2, 1e-3, 1e-4, 1e-5, 1e-6, dan 1e-7. Hasil terbaik didapatkan pada model yang menggunakan dataset yang menggunakan dataset base, learning rate 2e-5, epsilon 1e-5, dan weight decay 1e-5 dengan nilai akurasi 0.853, recall 0.853, precision 0.872, dan F1 0.853.

Item Type: Thesis (Bachelor Thesis)
Keywords: ADAM, Back-translation, IndoBERT, Klasifikasi Berita Disabilitas, Text Mining
Subjects: 000 Computer Science, Information and General Works > 000 Computer Science, Knowledge and Systems > 006 Special Computer Methods > 006.7 Multimedia Systems, Blogs, Social Media, Web Application Frameworks
Divisions: Faculty of Engineering & Informatics > Informatics
SWORD Depositor: Administrator UMN Library
Depositing User: Administrator UMN Library
Date Deposited: 24 Aug 2021 11:51
Last Modified: 25 Aug 2023 06:07
URI: https://kc.umn.ac.id/id/eprint/17423

Actions (login required)

View Item View Item