Sin embargo, por ahora, HyprLabs está anunciando su producto de software llamado Hyprdrive, que califica como un salto adelante en la forma en que los ingenieros entrenan a los vehículos para que se conduzcan solos. Este tipo de avances están presentes en todo el sector de la robótica, gracias a los avances en el aprendizaje automático, que prometen reducir el costo de la formación de software para vehículos autónomos y la cantidad de mano de obra humana implicada. Esta evolución ha traído un nuevo movimiento a un espacio que durante años sufrió un "abismo de desilusión", ya que los desarrolladores no cumplían sus propios plazos para operar robots en espacios públicos. Ahora, los robotaxis recogen pasajeros de pago en cada vez más ciudades, y los fabricantes de automóviles hacen nuevas y ambiciosas promesas de llevar la conducción autónoma a los autos personales de los clientes.
Pero utilizar un equipo pequeño, ágil y barato para pasar de "conducir bastante bien" a "conducir de forma mucho más segura que un humano" es un enorme obstáculo. "No te puedo decir a ciencia cierta que esto vaya a funcionar, pero lo que hemos construido es una señal muy sólida. Solo hay que ampliarla", afirma Kentley-Klay.
los vehículos autónomos parecía librarse entre los que solo utilizaban cámaras para entrenar su software (Tesla) y los que dependían también de otros sensores (Waymo, Cruise), incluidos los costosos lidar y radar. Pero bajo la superficie se agitaban diferencias filosóficas de mayor calado.Los partidarios de las cámaras, como Tesla, querían ahorrar dinero mientras planeaban lanzar una gigantesca flota de robots; durante una década, el plan de Elon Musk ha consistido en convertir de repente todos los autos de sus clientes en autoconducidos mediante una actualización de software. La ventaja era que estas empresas disponían de montones de datos, ya que sus vehículos aún no autoconducidos recogían imágenes por donde pasaban. Esta información se introdujo en lo que se denomina un modelo de aprendizaje automático "de extremo a extremo", mediante refuerzo. Por ejemplo, el sistema recibe imágenes de una bicicleta y emite órdenes de conducción: mueve el volante a la izquierda y acelera suavemente para no chocar. "Es como entrenar a un perro. Al final, dices: 'Perro malo' o 'Buen chico'", explica Philip Koopman, investigador de seguridad y software para vehículos autónomos de la Universidad Carnegie Mellon.
Por su parte, los partidarios de los multisensores gastaron más dinero por adelantado. Tenían flotas más pequeñas, que capturaban menos datos, pero estaban dispuestos a pagar a grandes equipos de personas para etiquetar esa información, de modo que el software de conducción autónoma pudiera entrenarse con ella. Por ejemplo: así es como se ve una bicicleta y así es como se mueve. Estos equipos humanos enseñaron a los sistemas de conducción autónoma mediante aprendizaje automático. Mientras tanto, los ingenieros pudieron programar reglas y excepciones para que el sistema no asumiera que, por ejemplo, una imagen de una bicicleta se comportaría como un objeto tridimensional.
carreteras públicas y, además, solo funciona en contextos no callejeros. "No estamos diciendo que esto esté listo para la producción ni para cumplir estándares de seguridad, pero estamos demostrando una capacidad impresionante para conducir con una cantidad insoportablemente pequeña de trabajo computacional", argumenta Kentley-Klay.La verdadera prueba de fuego de la startup podría llegar el año que viene, cuando tiene previsto presentar su robot poco tradicional. "Es una locura", concluye Kentley-Klay.
Artículo originalmente publicado enWIRED.Adaptado por Alondra Flores.