AI4DD
< Projeler Sayfası
Proje Adı
Otonom Hata Tespiti için AI Tabanlı Görüntü İşleme Kiti
Şirket Adı
Arçelik
Şirket Mentoru
Arda Merdin
Akademik Mentor
Assoc. Prof. Emine Ülkü Sarıtaş
Asistan
Elif Ahsen Çakmakci
Takım Üyeleri
Alkın Er,
Boray Güvenç,
Başak Doğa Kayalar,
Eylül Özaltın,
Selin Öykü Tanören,
Didem Zeynep Ünal
Özet
Cihazımız, Arçelik'in buzdolabı fabrikalarındaki operatörlere erişilebilir, kullanıcı dostu kitler ve arayüzler sağlamayı hedeflemektedir. Kitin başlıca hedefleri arasında, üretimdeki hataları tespit etmek bulunmaktadır; örneğin elektronik kartlardaki uyuşmayan kablolar ve eksik logolar gibi. Ürünümüz, otomasyon aracılığıyla insan müdahalesini azaltmayı ve müşteri memnuniyetini sağlamayı amaçlamaktadır. Kitin geliştirilmesinde yapay zeka (AI) teknolojisi kullanılmış olup, esnek, uyarlanabilir ve kullanımı kolay bir çözüm sunmaktadır. Kit, buzdolaplarındaki kusurları tanımlamak için yapay zeka ve görüntü işleme tekniklerini kullanır ve bulguları operatörlere bir kullanıcı arayüzü (GUI) aracılığıyla bildirir. Ayrıca, kendini güncellemek ve adapte etmek için kullanıcı geri bildirimlerini kullanır. Proje kapsamında kullanılan başlıca yöntemler derin öğrenme, PLC (Programlanabilir Mantık Denetleyicisi) iletişimi, çevrimiçi öğrenme ve AI, görüntü işleme, gömülü sistem ve kamera entegrasyonudur.Proje sonunda en az %80 doğrulama ve en az %90 eğitim doğruluğuna sahip olmayı bekliyoruz.
Abstract
Our autonomous device aims to provide accessible, user-friendly kits and interfaces to operators at Arçelik's refrigerator factories. The primary goals of the kit include detecting faults in production, such as missing logos and mismatched cables in electronic cards. Through automation, our product aims to decrease human intervention and ensure customer satisfaction. Artificial intelligence (AI) technology is utilized in developing the kit, offering a versatile, adaptable, and easy-to-use solution. The kit uses AI and image processing techniques to identify defects on refrigerators and reports findings to operators via a user interface (GUI). In addition, it uses user feedback to update and adapt itself. The main methods used in the project are deep learning, PLC (Programmable Logic Controller) communication, online learning and AI, image processing, an embedded system, and camera integration. At the end of the project we expect to have at least 80% validation and at least 90% training accuracy.