Araştırmacılar modeli eğitmek için bir KUKA robot-kol ve GelSight isimli özel dokunmatik bir sensör kullandı. Robot kolun evlerde kullanılan 200 objeye 12 bin defa dokunması sağlandı. Bu esnada elde edilen görsel ve dokunmatik veriler kaydedildi. Model bu deneyimlere dayanarak 3 milyon görsel ve dokunsal imaja dayalı bir veri seti oluşturdu.
Yeni geliştirilen yapay zeka görerek ve dokunarak hissetmeyi öğrendi!
Massachusetts Teknoloji Enstitüsü'nün (MIT) Bilgisayar Bilimleri ve Yapay Zekâ Laboratuvarı'nda (CSAIL) çalışan araştırmacılar, görerek ve dokunarak objeleri hissedebilen yeni bir yapay zekâ geliştirdiğini açıkladı.
Berkeley'de bulunan Kaliforniya Üniversitesi'nden araştırmacı Andrew Owens ise yeni yapay zekânın çok zor bir görevi başarıyla gerçekleştirdiğini vurguladı.
Owens şöyle konuştu: "Bu görsel ve dokunsal sinyalleri birbirleri arasında ikna edici bir biçimde çevirebilen ilk yöntem. Bu tip modeller robotlar için çok faydalı olma potansiyeli taşıyor. Özellikle şu tip sorular karşısında: Bu obje sert mi yoksa yumuşak mı? Bu kupayı bu kolla kaldırırsam, kavrayışım ne kadar iyi olabilir? vb. Sinyaller çok değişik olduğu için bunlar çok zorlayıcı problemler. Fakat bu model büyük bir başarı gösterdi."
Araştırmacıların makalelerini Amerikan Bilgisayar ile Görme ve Model Tanıma Konferansı'na sunmaları bekleniyor.