Inspeksi Visual dengan Zipper Defect Classifier Berbasis Arsitektur EfficientNet-B0

Penulis

  • Muhammad Faturachman Atthaariq Universitas Tanjungpura
  • Yuansyah Hardian Putra Pratama Universitas Tanjungpura
  • Khairul Hafidh Universitas Tanjungpura

Kata Kunci:

Klasifikasi Gambar, Deep Learning, CNN, Zipper

Abstrak

Tantangan pada proses inspeksi visual secara manual oleh manusia dalam tahapan pengecekan kualitas (QC) barang manufaktur adalah terbatasnya tenaga dan waktu manusia. Cacat produk (defect) yang dihasilkan perlu diperiksa dengan ketelitian yang tinggi sehingga menguras tenaga manusia, karena produk defect yang lolos QC hingga ke tangan konsumen berakibat fatal bagi perusahaan. Hal ini ditambah dengan faktor human error manusia yang abstrak dan biaya upah manusia yang semakin tinggi setiap tahun. Pola defect dikenali secara manual, di mana hal ini masuk dalam tugas pattern recognition berbasis gambar. Saat ini tugas pattern recognition seperti klasifikasi gambar banyak dipecahkan dengan pendekatan deep learning, khususnya metode Convolutional Neural Network (CNN) yang memiliki banyak model state-of-the-art untuk melakukan klasifikasi gambar. Penelitian ini bertujuan untuk melakukan eksperimen klasifikasi gambar zipper menggunakan model CNN dan data yang diaugmentasi sebagai solusi sedikitnya data yang ada. Data gambar zipper diperbanyak dengan 4 teknik augmentasi yaitu horizontal flip, gaussian noise, motion blur, dan random brightness & contrast, menghasilkan data baru hingga 10 kali lipat data asli, yang kemudian masuk proses training pada model dengan basis EfficientNet-B0.  Arsitekttur EfficientNet dikenal efisien dan telah dipotimasi menggunakan teknik compound scaling agar memudahkan dalam melakukan tuning model. Model yang dipakai adalah model yang telah melalui proses pre-trained pada dataset ImageNet sehingga proses training dengan data zipper tidak dilakukan dari awal. Sebanyak 3679 gambar dilatih kedalam model EfficientNet-B0, menghasilkan model EfficientNet-B0 dengan akurasi validation mencapai 99,49%.

Referensi

A. Kujawińska and K. Vogt, “Human factors in visual quality control,” Management and Production Engineering Review, vol. 6, no. 2, pp. 25–31, 2015, https://doi.org/10.1515/mper-2015-0013.

J. Yang, S. Li, Z. Wang, H. Dong, J. Wang, and S. Tang, “Using Deep Learning to Detect Defects in Manufacturing: A Comprehensive Survey and Current Challenges,” Materials 2020, Vol. 13, Page 5755, vol. 13, no. 24, p. 5755, Dec. 2020, https://doi.org/10.3390/MA13245755.

M. Tan and Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” May 2019, Accessed: May 07, 2023. [Online]. Available: https://arxiv.org/abs/1905.11946

P. Bergmann, K. Batzner, M. Fauser, D. Sattlegger, and C. Steger, “The MVTec Anomaly Detection Dataset: A Comprehensive Real-World Dataset for Unsupervised Anomaly Detection,” Int J Comput Vis, vol. 129, no. 4, pp. 1038–1059, Apr. 2021, https://doi.org/10.1007/S11263-020-01400-4.

H. A. Shah, F. Saeed, S. Yun, J. H. Park, A. Paul, and J. M. Kang, “A Robust Approach for Brain Tumor Detection in Magnetic Resonance Images Using Finetuned EfficientNet,” IEEE Access, vol. 10, pp. 65426–65438, 2022, https://doi.org/10.1109/ACCESS.2022.3184113.

J. Liu, M. Wang, L. Bao, and X. Li, “EfficientNet based recognition of maize diseases by leaf image classification,” J Phys Conf Ser, vol. 1693, no. 1, p. 012148, Dec. 2020, https://doi.org/10.1088/1742-6596/1693/1/012148.

A. Buslaev, V. I. Iglovikov, E. Khvedchenya, A. Parinov, M. Druzhinin, and A. A. Kalinin, “Albumentations: Fast and Flexible Image Augmentations,” Information 2020, Vol. 11, Page 125, vol. 11, no. 2, p. 125, Feb. 2020, https://doi.org/10.3390/INFO11020125.

Unduhan

Diterbitkan

30-04-2024