CoopMind V1: Fine-Tuning Large Language Model dengan Pendekatan Low Rank Adaptation (LoRA) untuk Demokratisasi Pengetahuan Perkoperasian

Authors

  • Ryan Fadhilah Faizal Hakim Universitas Koperasi Indonesia
  • Catherine Vanya Pangemanan Universitas Koperasi Indonesia
  • Ery Supriyadi R. Universitas Koperasi Indonesia

Keywords:

Koperasi, Large Language Model, Fine-Tuning, Low Rank Adaptation (LoRA), Demokratisasi Pengetahuan

Abstract

Kualitas sumber daya manusia (SDM) yang rendah menjadi kendala fundamental dalam pengembangan koperasi di Indonesia, menyebabkan adanya kesenjangan kapabilitas (capability gap) yang menghambat realisasi potensi ekonomi koperasi. Menjawab tantangan ini, penelitian ini bertujuan untuk mengembangkan model bahasa terspesialisasi guna mendemokratisasi pengetahuan perkoperasian. Penelitian ini melakukan fine-tuning pada Large Language Model (LLM) Gemma-3-1B-it menggunakan pendekatan Low-Rank Adaptation (LoRA) yang efisien dari segi komputasi. Proses fine-tuning dilakukan pada dataset instruksional spesifik domain koperasi yang terdiri dari 900 sampel. Serangkaian eksperimen dijalankan dengan memvariasikan hyperparameter LoRA, yaitu rank (r) dan alpha (α), untuk menemukan konfigurasi optimal. Evaluasi kuantitatif dilakukan dengan metrik ROUGE, BLEU, dan BERTScore untuk mengukur kualitas leksikal dan semantik, serta analisis efisiensi komputasi. Hasil penelitian menunjukkan bahwa semua model yang melalui proses fine-tuning menunjukkan peningkatan performa yang signifikan dibandingkan dengan model dasar (base model). Konfigurasi LoRA dengan rank 16 dan alpha 32 teridentifikasi sebagai model optimal, yang mencapai skor tertinggi pada sebagian besar metrik evaluasi tanpa menunjukkan gejala overfitting. Keberhasilan ini membuktikan bahwa metode LoRA sangat efektif dan efisien untuk mengadaptasi LLM pada domain spesifik. Model yang dihasilkan, CoopMind, berpotensi besar menjadi instrumen untuk menjembatani kesenjangan pengetahuan dan mendukung pengembangan SDM koperasi di Indonesia secara lebih luas dan merata.

References

AKSOY, S. I. (2024). Democratizing Education AI and OpenAI Models for Global Access to Knowledge (pp. 79–92). IGI Global. https://doi.org/10.4018/979-8-3693-1666-5.ch004

Anisuzzaman, D.M., Malins, J.G., Friedman, P.A., & Attia, Z.I. (2024) . Fine-Tuning Large Language Models for Specialized Use Cases. Mayo Clinic Proceedings: Digital Health, 3(1). https://doi.org/10.1016/j.mcpdig.2024.11.005

Chen, Y., Wang, Y., Fu, S., Shen, L., Jing, Y., Tian, X., & Tao, D. (2025). HRP: High-Rank Preheating for Superior LoRA Initialization. arXiv. https://doi.org/10.48550/arXiv.2502.07739

Costa, C. J., Aparício, M., Aparicio, S., & Aparício, J. T. (2024). The Democratization of Artificial Intelligence: Theoretical Framework. Applied Sciences, 14(18), 8236. https://doi.org/10.3390/app14188236

Dasuki, R. E. (2021). Peningkatan Kapasitas Sumber Daya Manusia Koperasi dan Usaha Kecil Menengah Di Jawa Barat. Jurnal Ilmiah Abdimas, 2(1).

Hu, E.J., Shen, Y., Wallis, P., Allen-Zhu, Z., Li, Y., Wang, S., Wang, L., & Chen, W. (2021). LoRA: Low-Rank Adaptation of Large Language Models. arXiv:2106.09685.

Li, S., Yan, J., Wang, H., Tang, Z., Ren, X., Srinivasan, V., & Jin, H. (2023). Instruction-following Evaluation through Verbalizer Manipulation. arXiv. https://doi.org/10.48550/arXiv.2307.10558

Lin, C.-Y. (2004). ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out (pp. 74–81). Association for Computational Linguistics.

Lozano, M. B., Martinez, B., & Pindado, J. (2016). Corporate governance, ownership and firm value: Drivers of ownership as a good corporate governance mechanism. International Business Review. https://doi.org/10.1016/j.ibusrev.2016.04.005

Lu, W., Luu, R.K., & Buehler, M.J. (2025). Fine-tuning large language models for domain adaptation: exploration of training strategies, scaling, model merging and synergistic capabilities. npj Computational Materials, 11, Article number: 84. https://doi.org/10.1038/s41524-025-01564-y

Mai, Q. (M.). (2025). Slimming Down LLMs Without Losing Their Minds. arXiv. https://doi.org/10.48550/arXiv.2506.10885

Mujiyanti, S. (2023). Koperasi Indonesia dan Permasalahannya. Jurnal Informatika Ekonomi Bisnis. https://doi.org/10.37034/infeb.v5i3.653

Papadopoulos, C. (2024). Large language models for autistic and neurodivergent individuals: Concerns, benefits and the path forward. Neurodiversity, 2. https://doi.org/10.1177/27546330241301938

Papineni, K., Roukos, S., Ward, T., & Zhu, W.-J. (2002). Bleu: A method for automatic evaluation of machine translation. In P. Isabelle, E. Charniak, & D. Lin (Eds.), Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (pp. 311–318). Association for Computational Linguistics. https://doi.org/10.3115/1073083.1073135

Purwito, L., Sucipto, Zulkarnain. (2024). Pelatihan Berbasis Kompetensi Sebagai Program Pengembangan Sumber Daya Manusia Bagi Pengelola Koperasi Serba Usaha Syariah Al Mizan Wlingi Di Kabupaten Blitar. Community Development Journal, 5(1), 2581 – 2586.

Saouabe, A., Oualla, H., Mazar, M., & Messadia, M. (2024). Evolution of Human Resources Management Methods: From Traditional Approaches to Generative Artificial Intelligence. 1–5. https://doi.org/10.1109/dasa63652.2024.10836655

Toman Sony, T. H. (2019). Manajemen Koperasi. Yrama Widya.

Zhang, T., Kishore, V., Wu, F., Weinberger, K. Q., & Artzi, Y. (2019). BERTScore: Evaluating text generation with BERT. arXiv. https://doi.org/10.48550/arXiv.1904.09675

Downloads

Published

2026-01-25

How to Cite

Hakim, R. F. F., Pangemanan, C. V., & Supriyadi R., E. (2026). CoopMind V1: Fine-Tuning Large Language Model dengan Pendekatan Low Rank Adaptation (LoRA) untuk Demokratisasi Pengetahuan Perkoperasian. Data Enthusiast: Jurnal Ilmiah Sains Data, 2(1), 33–52. Retrieved from https://journal2.ikopin.ac.id/index.php/dataenthusiast/article/view/17