“Dataset dibuat secara manual dengan menjalankan file Image Collection Python yang mengumpulkan gambar dari webcam Anda,” kata Gupta dikutip Pikiranrakyat-Bekasi.com dari Mashable SEA.
“Semua terjemahan terletak dalam Bahasa Isyarat Amerika yang terlihat di web. Seperti: Halo, aku mencintaimu, Terima kasih, Tolong, Ya, dan Tidak,” jelasnya.
Postingannya di LinkedIn sejauh ini mendapat lebih dari 60.000 reaksi, dengan banyak yang penasaran dengan desain dan metodologi yang digunakan untuk membuat model tersebut.
Menanggapi satu komentar kritis, dia mengakui bahwa meskipun dia telah memanfaatkan model pra-pelatihan untuk menghasilkan modelnya sendiri, dia yakin bahwa komunitas open-source pada akhirnya akan dapat membangun konsep seperti itu untuk diharapkan berkembang.
AI lebih cocok untuk tugas yang lebih kompleks dalam konteks yang sama.
“Membangun model pembelajaran mendalam dari awal hanya untuk deteksi isyarat adalah masalah yang sangat sulit, tetapi bukan tidak mungkin,” katanya.
Gupta berharap program yang ia kembangkan dapat lebih dikembangkan oleh mereka yang lebih profesional.
“Dan saat ini saya hanya seorang mahasiswa amatir tetapi saya sedang belajar dan saya percaya cepat atau lambat komunitas open-source kita sendiri yang jauh lebih berpengalaman dan terpelajar daripada saya akan menemukan solusi,” katanya.