La Universidad de Michigan, bien conocido por sus esfuerzos en la tecnología de auto-manejo de automóviles, ha estado trabajando en un algoritmo mejorado para predecir los movimientos de los peatones que toma en cuenta no solo lo que están haciendo, sino también cómo lo están haciendo. Este lenguaje corporal puede ser crítico para predecir lo que una persona hace a continuación.
Mantener un ojo en los peatones y predecir lo que van a hacer es una parte importante del sistema de visión de cualquier vehículo autónomo. Comprender que una persona está presente y dónde hace una gran diferencia en la forma en que el vehículo puede operar, pero mientras algunas compañías anuncian que pueden ver y etiquetar a las personas en tal o cual rango, o bajo estas o esas condiciones, pocos o ninguno pueden hacerlo. Dicen que pueden ver gestos y posturas.
¿WTF es la visión por ordenador?
Dichos algoritmos de visión pueden (aunque en …