Google retoma el desarrollo de robots con su TossingBot, capaz de ‘encestar’ objetos con mayor precisión que cualquier humano

Google retoma el desarrollo de robots con su TossingBot, capaz de 'encestar' objetos con mayor precisión que cualquier humano

Google se deshizo en julio de 2017 de sus dos filiales dedicadas a la robótica, Boston Dynamics y la japonesa SCHAFT. Andy Rubin, uno de los cofundadores de Google, especialmente interesado en este campo, había decidido adquirir esta startup 4 años antes, pero la compañía terminó aceptando una oferta de SoftBank para ambas empresas.

Sin embargo, eso no significa que Google hubiera abandonado para siempre el campo de la robótica: Google hizo público hace unos días el lanzamiento -en colaboración con el MIT y las universidades de Columbia y Princeton- de un laboratorio bautizado como ‘Robotics at Google’.

Y su objetivo es desarrollar robots que hagan un uso intensivo del machine learning, utilizando esta tecnología para permitirles aprender por sí mismo a interpretar su espacio físico y demostrar habilidades sencillas como moverse sorteando obstáculos, o coger y lanzar objetos.

Pero que hagan pública ahora esta iniciativa no significa que no llevaran un tiempo trabajando en su primera criatura: un robot capaz de agarrar objetos y tirarlos dentro de cajas recurriendo al análisis de la información sobre su entorno captada a través de varias cámaras (incluyendo, por ejemplo, el lugar donde los objetos caen tras lanzarlos).

Más preciso que cualquier humano

Pero, ¿qué tiene de especial que un robot coja y lance objetos? A priori, poco. Pero es que ese lanzamiento no se limita a dejar caer algo, sino a tirarlo en un área concreta situada fuera de su rango natural de movimientos. Y, encima, el robot de Google logra hacer eso con mayor precisión que la lograda por un ser humano.

El sistema emplea tres redes neuronales para llevar a cabo esa hazaña: una red identifica objetos dentro de un contenedor, una segunda para determinar cómo recogerlos y una tercera que le dice al robot cómo lanzar el objeto.

El lanzamiento de objetos, además, no está automatizado, sino que le exige ir improvisando sobre la marcha en base al tipo de objeto y a la caja a la que está destinado.

«Independientemente de cómo se le agarre, lanzar un destornillador es totalmente diferente de lanzar una pelota de ping pong, que aterrizaría más cerca debido a la resistencia del aire.

Lanzar objetos arbitrarios en entornos no estructurados presenta muchos desafíos: desde la adquisición de condiciones confiables de tiro previo (por ejemplo, la postura inicial del objeto en el manipulador) hasta el manejo de propiedades variables centradas en el objeto (como la distribución de masa, la fricción y la forma) y dinámica (como la aerodinámica)».

Tras catorce horas de entrenamiento en las que el robot de Google llegó a realizar 10.000 lanzamientos de objetos tan distintos como plátanos de plástico y pelotas de ping pong, el porcentaje de aciertos logró estabilizarse en torno al 85%, pudiendo procesar las condiciones del lanzamiento en una milésima de segundo.

Pero el nuevo laboratorio de Google no se ha limitado a desarrollar TossingBot, sino que tiene ya en marcha otros dos proyectos: uno basado en el entrenamiento de manos robóticas para permitirles manipular y desplazar objetos mediante movimientos sutiles, y otro destinado a desarrollar un robot capaz de moverse por espacios desconocidos.

Vía | Princeton

También te recomendamos


Estas son todas las muertes que habrías sufrido sin tecnología


China ya ha superado a EE.UU en número de investigaciones sobre inteligencia artificial… y en breve lo hará en calidad


Crean una ‘mano’ robótica con inteligencia artificial capaz de reconocer objetos tocándolos


La noticia

Google retoma el desarrollo de robots con su TossingBot, capaz de ‘encestar’ objetos con mayor precisión que cualquier humano

fue publicada originalmente en

Xataka

por
Marcos Merino

.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *