Google DeepMind, robotların fiziksel dünyayı daha doğru algılaması ve gördüğü sahneye göre işlem sırası kurabilmesi için Gemini Robotics-ER 1.6 modelini duyurdu. Şirketin resmi açıklamasına göre bu yeni sürüm, robotların karmaşık görsel verileri yorumlamasına, uzamsal ilişkileri anlamasına ve doğal dil komutlarından hareket planı çıkarmasına yardımcı oluyor. Modelin öne çıkan tarafı, yalnızca komutu yerine getiren sistem mantığında kalmaması; çevrede ne olduğunu okuyup buna göre sonraki adımı belirleyebilmesi. Google, yeni modelin çoklu görüntü akıl yürütme, cihaz okuma ve görevin tamamlanıp tamamlanmadığını anlama gibi alanlarda geliştirildiğini duyurdu. Resmi belgelerde Gemini Robotics-ER 1.6’nın ön izleme sürümü olarak geliştiricilere açıldığı, Google AI Studio ve Gemini API üzerinden erişilebildiği bilgisi de paylaşıldı. Google’ın 14 Nisan 2026 tarihli duyurusuyla netleşen bu adım, robotik alanda yazılım tarafının daha güçlü hale geldiğini ortaya koydu.
Gemini Robotics-ER 1.6 Robotlara Neler Kazandırıyor?
Model Geliştiricilere Açıldı
Google AI for Developers sayfasında yer alan bilgilere göre Gemini Robotics-ER 1.6 şu anda preview aşamasında yer alıyor. Belgelerde modelin görsel-dil yapısında olduğu, fiziksel dünyada gelişmiş akıl yürütme için tasarlandığı ve doğal dil komutlarından eylem planı çıkarabildiği ifade ediliyor. Google ayrıca güvenlik tarafında da modelin tehlikeli durumları ayırt etme ve fiziksel güvenlik kurallarına uyma konusunda geliştirildiğini belirtiyor. Şirketin değişiklik kayıtlarında, gemini-robotics-er-1.6-preview sürümünün 14 Nisan 2026 tarihinde yayımlandığı ve cihaz okuma ile uzamsal ve fiziksel akıl yürütme tarafında yenilikler getirdiği açık şekilde yer alıyor. Böylece yeni model, yalnızca araştırma duyurusu olmaktan çıkıp doğrudan geliştiricilerin test edebileceği bir araç haline gelmiş oldu.