Comparison Between Impacts of Color and Gray Images by Deep Learning: A Case Study of Defective Water Tap Detection in Production
Abstract
ปัจจุบันผู้ประกอบการในภาคอุตสาหกรรมต่างๆ ได้เริ่มมีการศึกษาความเป็นไปได้ในการที่จะนำเทคโนโลยีปัญญาประดิษฐ์ซึ่งเป็นเทคโนโลยีสมัยใหม่มาช่วยในการปรับปรุงและพัฒนากระบวนการผลิต ด้วยเหตุนี้การศึกษานี้จึงถูกดำเนินการขึ้น โดยมีวัตถุประสงค์เพื่อเปรียบเทียบประสิทธิภาพของโมเดลการเรียนรู้แบบถ่ายโอนในการจำแนกตรวจจับก๊อกน้ำที่มีข้อบกพร่องในสายการผลิตและเพื่อพัฒนาระบบอัตโนมัติสำหรับการคัดแยกชิ้นงานที่มีความบกพร่องออกจากสายการผลิต วิธีดำเนินการวิจัยเริ่มจากการเก็บรวบรวมภาพ การทำเครื่องหมายกำกับภาพ การประมวลผลภาพเบื้องต้น การแบ่งข้อมูล การเรียนรู้โมเดล การตรวจสอบความถูกต้อง และการประเมินโมเดลเป็นขั้นตอนสุดท้าย โดยใช้โมเดลการเรียนรู้แบบถ่ายโอน 6 โมเดล ซึ่งจากผลการวิจัยที่ได้ พบว่า ในการประมวลผลภาพสี โมเดล EfficientNetB0 ให้ค่าความแม่นยำสูงที่สุด (100%) ส่วนภาพขาวดำ DenseNet121, InceptionV3, MobileNet และ Xception ให้ความแม่นยำ 100% เท่ากัน อย่างไรก็ตาม เมื่อพิจารณาขนาดโมเดล ร่วมด้วย พบว่า MobileNet มีขนาดเล็กที่สุดคือ 38.70 MB โดยมีประสิทธิภาพอยู่ที่ 8.824% จึงสรุปได้ว่าควรเลือกใช้โมเดล MobileNet ในการประมวลผลภาพขาวดำ เพื่อพัฒนาต่อยอดสำหรับสร้างสถานีงานอัตโนมัติในการคัดแยกชิ้นงานที่มีข้อบกพร่องออกจากสายการผลิตก๊อกน้ำ
Currently, entrepreneurs across various industrial sectors have begun studying the feasibility of implementing artificial intelligence, a modern technology, to help improve and develop their production processes. For this reason, this study was conducted with the objective of comparing the efficiency of transfer learning models in classifying and detecting defective water taps in the production line and to develop an automated system for sorting defective pieces from the production line. The research methodology begins with image collection, image labeling, preliminary image processing, data splitting, model training, validation, and model evaluation as the final step. Six transfer learning models were used. The research results show that for color image processing, the EfficientNetB0 model provides the highest accuracy (100%), while for grayscale images, DenseNet121, InceptionV3, MobileNet, and Xception all achieve 100% accuracy. However, MobileNet is the smallest at 38.70 MB, with an efficiency of 0.824% when considering model size. Therefore, it is concluded that the MobileNet model should be chosen for grayscale image processing to develop further an automated workstation for sorting defective parts from the water tap production line.
Keywords
[1] A. Piyasinchart, P. Boonpoor, T. Thammachai and T. Daengsi, Detection of defects in work-in-process products using deep learning: A case of a water tap production line, 6th International Seminar on Research of Information Technology and Intelligent Systems (ISRITI), Proceeding, 2023, 369-372.
[2] A. Piyasinchart, P. Sirawongphatsara, P. Boonpoor, N. Chantasen and T. Daengsi, Improving water tap production lines: A proof of concept for deep learning-based defect detection system development, Journal of Applied Information Technology, 2024, 10(1), 8-21.
[3] T. Daengsi, K. Cheevanichapan, U. Soteyome and T. Thimthong, Irrigation management: A pilot study for automatic water level measurement and report system development using machine learning associated with modified images, 5th International Seminar on Research of Information Technology and Intelligent Systems (ISRITI), Proceeding, 2022, 543-547.
[4] K.G. Dhal, A. Das, J. Gálvez, S. Ray, and S. Das, An overview on nature-inspired optimization algorithms and their possible application in image processing domain, Pattern Recognition and Image Analysis, 30, 2020, 614–631.
[5] T. Benjawilaikul and T. Kaewwichit, Classification of carbon steels by automated spark test technique using feature extraction based on machine learning image processing, The Journal of Industrial Technology, 2022, 18(2), 203-216.
[6] C. Rattanapoka, P. Jannet and T. Moonpanyo, A service system for estimation of gender and assessing the person's age from facial images by deep learning-based method, The Journal of Industrial Technology, 2022, 18(2), 165-179.
[7] M.Y. Ansari and M. Qaraqe, MEFood: A large-scale representative benchmark of quotidian foods for the middle east, IEEE Access, 2023, 11, 4589-4601.
[8] F. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu and H. Zhu, A Comprehensive Survey on Transfer Learning, Proceedings of the IEEE, 2021, 109(1), 43-76.
[9] J. Yang, Z. Zeng, K. Wang, H. Zou, and L. Xie, GarbageNet: A Unified learning framework for robust garbage classification, IEEE Transactions on Artificial Intelligence, 2021, 2(4), 372–380.
[10] B. Fu, S. Li, J. Wei, Q. Li, Q. Wang and J. Tu, A novel intelligent garbage classification system based on deep learning and an embedded linux system, IEEE Access, 2021, 9, 131134–131146.
[11] S. Chatterjee, D. Hazra, and Y.-C. Byun, Incepx-ensemble: performance enhancement based on data augmentation and hybrid learning for recycling transparent PET bottles, IEEE Access, 2022, 10, 52280–52293.
[12] P. Boonpoor, P. Wuttidittachotti, K. Puangnak, T. Thimthong and T. Daengsi, Accuracy improvement of transfer learning using hybrid approach: a case study of imbalanced Thai food image classification, 2023 International Conference on Artificial Intelligence, Blockchain, Cloud Computing, and Data Analytics (ICoABCD), Proceeding, 2023, 48-52,
[13] R. R. Subramanian, M. Lakshmi, M. Lavanya, M. K. G. Roy and M. C. Manvitha, Detecting defects in manufacturing process using deep learning models, 4th International Conference on Data Engineering and Communication Systems (ICDECS), Proceeding, 2024, 1-6.
[14] M. I. Faiz Mohd Derafi, S. F. Abdul Razak and M. S. Sayeed, Banana disease classification using transfer learning, IEEE Symposium on Industrial Electronics and Applications (ISIEA), Proceeding, 2024, 1-7.
[15] T. Daengsi, P. Boonpoor, K. Puangnak, P. Pholchanngam, P. Wuttidittachotti and P. Unahalekhaka, Comparison of impacts from color-based and geometric augmentations for deep learning: A case of Thai food images, IEEE 14th Symposium on Computer Applications and Industrial Electronics (ISCAIE), Proceeding, 2024, 1-5.
DOI: 10.14416/j.ind.tech.2024.12.012
Refbacks
- There are currently no refbacks.