¿Cómo aprende la inteligencia artificial? Pues de forma similar a un niño

Inteligencia artificial
0
Compartir

¿Cómo aprende la inteligencia artificial? Pues de forma similar a un niño

Cuando un bebé se empeña en tirar al suelo todo lo que le llega a las manos en esa etapa suya a veces un poco desquiciante no hace otra cosa más que aprender. Está comprobando una y otra vez, una y otra vez, una y otra vez cuánto tarda en llegar abajo eso que tiene en la mano y, sobre todo, cómo se ve desde arriba. Entre otras cosas, está entrenando a su cerebro para que construya (o afine) la percepción del espacio tridimensional.

Por eso, algunas personas ciegas de nacimiento cuando recuperan la vista apenas son capaces de distinguir tamaños y distancias. ¿Ese vaso de la mesa se ve a 10 centímetros de alto porque lo tengo al lado, o realmente mide 80 centímetros y está a varios metros de mí? Por eso, también, personas que pierden un ojo y que físicamente es imposible que vean en 3D se manejan perfectamente con los espacios: porque su cerebro es capaz de ‘reconstruir’, gracias al entrenamiento anterior, las distancias.

Algo así ocurre con los programas informáticos. Necesitan una base con la que comparar percepciones posteriores, y en esta cuestión invierten grandes cantidades de recursos algunas organizaciones.

Un buen ejemplo es Spotify. La última herramienta que ha lanzado la popular plataforma de música en streaming está dirigida a recomendarte canciones según el tiempo de tu ciudad. Repetimos: de tu ciudad. Es decir, no le recomendará lo mismo a un neoyorquino que a un madrileño en un día de lluvia.

¿Cómo ha logrado deducir qué música te apetece escuchar cuando hace mal tiempo? Y más aún, ¿cómo sabe que los gustos varían en función de la ubicación geográfica del usuario? Pues tras un estudio en el que ha comparado los datos de 1.000 estaciones meteorológicas con 85.000 millones de reproducciones.

Algo parecido ha hecho Google con su proyecto Google Brain, con el que enseñan al buscador a reconocer caras a partir de imágenes con poquísimos píxeles. ¿Te suena esto que hacen en las series policíacas de “amplíame la imagen” y “dame resolución” y descubren al asesino en el reflejo de las gafas de sol del piloto de un avión que vuela a 10.000 metros de altura? Bueno, pues parece que está más cerca de ser verdad.

Igual o más ambicioso aún es el proyecto de la start-up Audio Analytic, que se ha propuesto crear una clasificación de sonidos para generar sistemas automáticos de reconocimiento de audio. Parece sencillo cuando lo hace nuestro cerebro: ¿un cristal de una ventana roto por una pedrada? ¿Un vaso que se cae? Para un programa no es tan fácil. De hecho, el equipo de Audio Analytic ha empezado por romper miles de cristales para centrarse en este primer sonido. ¿Cómo abordarán el reto de los gritos humanos?

Para terminar, os dejamos un amplio audiovisual con el que podéis echar a volar la imaginación: Cámaras de vigilancia en las ciudades + reconocimiento facial + tecnología móvil + … lo que se os ocurra.

Related Posts

Los comentarios están deshabitados