Universitas Airlangga Official Website

AI untuk Atasi Information Overload di Dunia Riset dengan Memadukan Dependency Parsing dan Sentence-BERT

Potensi dan Tantangan Penerapan Artificial Intelligence – Large Language Model (AI-LLM) dalam Obstetri dan Ginekologi
Ilustrasi Artificial Intelligence Medis (Foto: itnonline.com)

Peneliti Departemen Ilmu Informasi dan Perpustakaan Universitas Airlangga (UNAIR) memperkenalkan pendekatan kecerdasan buatan untuk mengatasi “information overload” yang kian dirasakan para peneliti di tengah ledakan publikasi ilmiah. Alih-alih membaca ratusan artikel satu per satu, metode ini mengekstrak inti gagasan dari abstrak secara otomatis, sehingga peneliti dapat menemukan konsep terpenting dengan cepat dan tetap fokus pada analisis.

Secara teknis, sistem memadukan dependency parsing, yang “membedah” struktur kalimat untuk mengetahui siapa melakukan apa terhadap apa, dengan pengukuran kemiripan makna berbasis Sentence-BERT. Hasil ekstraksi kemudian dicocokkan dengan kata kunci yang relevan, sehingga sistem tidak hanya mencari kemiripan kata, tetapi benar-benar memahami kedekatan makna. Dalam studi awal, tim menganalisis 299 artikel bertema information overload dan cognitive load dari basis data Scopus untuk menguji keandalan pendekatan ini.

Kinerja awal menunjukkan hasil yang menjanjikan. Rata-rata kemiripan semantik mencapai 0,602 (skala 0–1) dengan recall maksimum 1,00, menandakan sebagian besar konsep relevan berhasil terjangkau. Precision maksimum 0,674 mengindikasikan masih ada ruang untuk menyaring konsep yang dihasilkan, sementara skor F1 maksimum 0,725 memperlihatkan keseimbangan yang solid antara kelengkapan dan ketepatan. Secara praktis, dari kalimat tentang “augmented reality yang meningkatkan interaksi pengguna,” sistem mampu menangkap konsep inti seperti “visualization assistive,” “immersive experiences,” dan “enhance user interaction” tanpa harus menelaah seluruh artikel.

Manfaatnya dirasakan lintas sivitas akademika. Dosen dan peneliti dapat melakukan kurasi cepat untuk literature review dan menemukan celah riset, mahasiswa terbantu menajamkan pemahaman konsep saat menyusun tugas akhir, serta sementara pustakawan dan pengelola repositori dapat menjadikannya fondasi otomatisasi penandaan/topik untuk meningkatkan temu kembali koleksi digital.

Ke depan, tim menargetkan peningkatan precision melalui teknik ekstraksi yang lebih halus, uji lintas-domain di luar topik information overload, serta skalabilitas ke dataset yang lebih besar. Pendekatan ini diharapkan menjadi komponen penting dalam ekosistem pengetahuan Unair untuk mempercepat produksi dan difusi pengetahuan berbasis bukti.

Riset berjudul “Mitigating Information Overload in Scientific Text Analysis: Automated Extraction of Important Concepts Using Dependency Parsing and Semantic Similarity” ini dipresentasikan pada 2024 International Conference on Computing, Engineering and Design (ICCED) yang disponsori oleh IEEE dan diterbitkan dalam IEEEXplore. Tim penulis terdiri dari Faisal Fahmi, Zulfatun Sofiyani, Imam Yuadi, Yunus Abdul Halim, dan Ragil Tri Atmi dari Departemen Ilmu Informasi dan Perpustakaan, Unair.

Penulis: Faisal Fahmi, S.Pd., M.Sc., Ph.D.

Informasi detail artikel dapat diakses melalui: https://scholar.unair.ac.id/en/publications/mitigating-information-overload-in-scientific-text-analysis-autom