Language Chooser
Subscription Options:
Subscribe via RSS
Email Quick Subscribe
About me
Categorías
agosto 2016
M T W T F S S
« Apr    
1234567
891011121314
15161718192021
22232425262728
293031  

Q.bo Robot

El sueño de un niño

Pertenezco a esa generación que creció devorando novelas de ciencia ficción que prometían que para el año 2000 veranearíamos en otros planetas, iríamos al trabajo en aeronaves autopropulsadas y tendríamos una pequeña flota de robots en casa. Pasé la infancia soñando con aquel futuro maravilloso que habían proyectado en mi mente y que ya no podía detener mi imaginación, y maduré con la decepción de todos esas promesas incumplidas. No fue hasta hace pocos años que me pareció factible dar este pequeño paso para acercar mis sueños a la realidad, y construir mi propio robot doméstico.

Hoy acaban más de 6 años de ilusión y trabajo duro, y comienza una realidad. El tiempo dirá si realmente he conseguido ayudar a que la robótica y la inteligencia artificial lleguen a los hogares del mundo pero, ocurra lo que ocurra, cuento con la satisfacción de que todo lo vivido a lo largo de este proyecto ha merecido la pena y con el orgullo de haber perseguido mi sueño.

Finalización del proyecto

Hace ya algo más de seis años que me enrolé en esta maravillosa aventura. Durante los primeros años navegué en solitario pero, a medida que el proyecto seguía avanzando con éxito, pude rodearme de un equipo variopinto de personas que nunca se limitaron a cumplir con su misión, sino que creyeron en este proyecto romántico y se involucraron dando lo mejor de sí mismos.

Después de tanto trabajo de tantas personas, hemos alcanzado por fin nuestra meta. Muchas cosas han ocurrido durante el viaje, algunas maravillosas y otras menos buenas pero, en lugar de pensar en lo que he dejado en el camino, me quedo con todo lo que he encontrado. He aprendido más de lo que nunca imaginé, he conocido personas extraordinarias y he comprobado que todo esfuerzo consigue finalmente su recompensa.

Objetivo, Concepto, visión y Open Source

Este proyecto fue concebido con el firme propósito de crear una plataforma de Inteligencia Artificial que cada día lograse ser un poco más inteligente que el anterior.

Para lograrlo, considero fundamentales dos líneas de trabajo: por un lado, desarrollar una plataforma robótica lo más estándar posible, que fomente la creación de un ecosistema de investigación y desarrollo a su alrededor. Por otro lado, conseguir un diseño lo suficientemente atractivo como para que las personas empatizen con la plataforma y la adopten en su vida diaria, alimentando el sistema con sus interacciones.

Siempre he creído que la robótica debe cimentarse en una comunidad abierta donde fluya el conocimiento y desterrar de una vez el modelo de laboratorios cerrados rodeados del más absoluto secretismo, donde un grupo de ingenieros trabajaban en prototipos que nunca verán la luz o que, en el mejor de los casos, son utilizados como herramienta de marketing para otros productos completamente ajenos a la robótica.

Es por todo lo anterior que veía necesario construir una estructura abierta y de bajo coste, alrededor de la cual pueda nacer un auténtico ecosistema orientado al avance de la Inteligencia Artificial. Una comunidad de expertos y aficionados a la robótica, electrónica e informática, que intercambien sus conocimientos, diseños y experiencia para conseguir una gama ilimitada de aplicaciones que otras personas puedan utilizar en su propio beneficio o en el de otros (seguridad, tele-medicina, tele-presencia, fines terapéuticos, etc).

Este proyecto ha sido posible gracias a empresas que comparten esta visión: Willow Garage, fundada por Scott Hassan en el año 2006 y que, gracias a su plataforma de desarrollo ROS, está generando una auténtica revolución en el mundo de la robótica. También a Arduino, cuya flexibilidad nos ha permitido diseñar dos placas (de las cinco que contiene Q.bo) compatibles con esta plataforma, y que entregaremos a la comunidad en formato OpenSource. Y, cómo no, gracias a Linux y a su creador Linus Torwald, que hacen posible que todas las partes de la plataforma funcionen de forma conjunta y robusta.

El uso de componentes electrónicos estándar que pueden encontrarse en cualquier tienda de robótica ha sido otro de los factores que desde el primer momento he considerado clave para minimizar esfuerzos y poder dedicar todos mis recursos a la plataforma base, evitando siempre reinventar la rueda.

Gracias a todos estos beneficios del OpenSource, Q.bo ha nacido como una plataforma que aúna diseño y última tecnología:

Diseño + Linux + Arduino + Ros + estándares = QBO

Formatos en los que se ofrece Qbo y funcionamiento de la reserva

Desde el principio, todos nuestros esfuerzos se han enfocado en crear una plataforma donde el diseño y la calidad marcaran las pautas del desarrollo. Nuestra obsesión por buscar la máxima calidad, tanto en las piezas plásticas que conforman la carcasa como en el acabado del chasis, han jugado una parte muy importante en la marcha del proyecto.

Después de 6 años de duro trabajo, te ofrecemos una base extraordinaria para que puedas experimentar con todo tipo de hardware y software. Somos conscientes de que no todas las personas tienen los mismos intereses respecto a Q.bo, y que algunos de vosotros preferís obviar la fase de construcción del robot. Es por ello que ponemos a tu disposición varias posibilidades, para que elijas la que más se adecue a tu perfil:

Q.bo Basic Kit sirve de base de montaje para construir un Q.bo como mejor te convenga. Este Kit incluye las carcasas de plástico, el chasis de acero, partes mecánicas, cámaras webcam y antena wifi. Por tanto, puedes ampliarlo con los servo-motores, placas controladoras, placa madre, microprocesador, memoria, que tu elijas, creando así un Q.bo configurado completamente a tu medida. En está pagina puedes encontrar un listado de componentes que puedes usar, recomendados y comprobados por el equipo de Thecorpora.

 

La version Q.bo Complete consiste en un Q.bo completamente montado. Se podrá elegir entre Q.bo Complete Pro y Q.bo Complete Lite. La versión Q.bo Complete Pro incluye una placa madre Mini ITX DQ67EP con un microprocesador Intel Core I3 de bajo consumo y un disco de 40GB SSD, mientras que el Q.bo Complete Lite viene con una placa de Intel D2700MUD, un microprocesador Intel ATOM D2700, un disco de 40GB mecánico y no incluye el mecanismo de párpados. Ambas incluyen una memoria RAM de 2GB DDR3. La versiones de Q.bo Complete (Lite y Pro) están pensadas para aquellos que quieran saltarse todos los pasos de montaje y de elección de los componentes. Si eres desarrollador de Software, estas versiones te permitirán olvidarte de todas las preocupaciones a nivel mecánico/electrónico y concentrarte en el Software.

La versión Q.bo Complete Pro tiene un precio superior a la versión Q.bo Complete Lite pero, además de proporcionar un mecanismo de párpados, permite la ejecución de algoritmos computacionalmente más pesados, mayor fluidez de movimientos y mayor velocidad de ejecución de algoritmos debido a su microprocesador Core I3, mucho más potente que el Intel ATOM D27000.

Agradecimientos

No puedo terminar este post sin expresar mi agradecimiento a las personas que habéis estado en todo momento a nuestro lado, personas que habéis hecho posible que Q.bo hoy sea una realidad. Gracias a todos aquellos que nos habéis enviado cientos de correos interesándoos por el proyecto, a todos los blogs de tecnología que habéis seguido y compartido las noticias publicadas en nuestro blog, a todos los amigos que nos seguís desde las redes sociales y también a todos los que habéis hablado de nosotros y nos habéis dado a conocer en vuestros círculos. GRACIAS.

 

SIEMPRE HE IMAGINADO UN ROBOT QUE FUERA MÁS INTELIGENTE CADA DIA GRACIAS A LA INFORMACIÓN PROPORCIONADA POR OTROS DE SU MISMA ESPECIE ALREDEDOR DEL MUNDO.

 

El ganador del concurso de TheCorpora es:


Pincha en la imágen

Montaje de Q.bo en time-lapse

A lo largo de la vida de este proyecto han debido de ser miles las veces que hemos montado y desmontado el robot  en nuestros laboratorios. Q.bo no es un juguete, es una plataforma compleja  que requiere de algunos conocimientos en robótica y es por ello que hemos querido grabar una de estas ocasiones, en formato Time-Lapse, para que podáis ver cómo uno de nuestros ingenieros, partiendo casi de cero, va montando cada uno de los componentes en el robot.

Muy pronto, con paciencia y algunos conocimientos de robótica,  vosotros también podréis montar, bien en la Base de Q.bo  o sobre otra plataforma Base creada por vosotros,  todos y cada uno de los componentes standard que a lo largo de este tiempo hemos ido probando y seleccionando para Q.bo. Podréis disfrutar montando las cinco ( 5 ) placas Open Source Hardware diseñadas por TheCorpora, instalar motores EMG-30, sensores de ultrasonido SRF-10, una pantalla LCD, un disco duro, una placa de PC y otros muchos componentes a cuya lista tendréis acceso muy pronto. Y por supuesto si no eres un “manitas” podrás conseguir un Q.bo completamente montado.

Entre todos trataremos de crear un auténtico ecosistema, donde una gran comunidad pueda crear y compartir proyectos e ideas alrededor de la plataforma Q.bo. Será muy excitante saber hasta donde puede llegar vuestra imaginación.

Q.bo y el sensor 3D Xtion pro Live

La capacidad de localización en un entorno y el mapeo del mismo es fundamental para que cualquier robot pueda actuar de forma autónoma y adaptarse a las circunstancias que lo rodean.

En robótica esta técnica se denomina SLAM ( Localización y Mapeo Simultáneo) y existen muchas técnicas en 2D y en 3D usando diferentes tipos de lasers, sonars o cámaras webcam. Aunque Q.bo en la fase actual cuenta con dos cámaras webcam HD así como la posibilidad de añadir hasta 4 sensores de ultrasonidos ( 2 delanteros y 2 traseros ) nuestro equipo ha querido ir mucho más allá incorporando un sensor Xtion Pro Live de Asus en la cabeza de Q.bo mediante un adaptador creado por los ingenieros de TheCorpora. La decisión se usar este sensor de ASUS en vez de otros similares ha sido fundamentalmente por su reducido tamaño y peso, adaptándose de forma muy precisa a nuestro robot Q.bo una vez diseñada la base para albergar dicho sensor.

Los experimentos realizados con Q.bo y el Xtion que se pueden observar en el vídeo son:

Capítulo II: Visualización 3D de la nube de puntos, en tiempo real, emitida por el Xtion Pro Live, usando el visualizador de ROS “RViz” con un modelo en 3D de Q.bo y una tarjeta gráfica NVIDIA GeForce GTX 295.

Capítulo III: SLAM (Localización y Mapeo Simultaneo), en que el robot construye un mapa 2D de su entorno, usando el sensor Xtion Pro Live para obtener el barrido laser 2D. Se ha utilizado el paquete de ROS “gmapping” que contiene la implementación del algoritmo de SLAM “GMapping” cuyos autores son Giorgio Grisetti, Cyrill Stachniss y Wolfram Burgard.

Capítulo IV: Navegación autónoma, uso del mapa en 2D construido y almacenado durante la fase de SLAM. Se indica a Q.bo la posición inicial y la posición deseada para robot usando el visualizador RViz. Para la localización se ha utilizado el paquete de ROS “amcl”, implementado por Brian P. Gerkey, que utiliza un filtro de partículas, el barrido laser obtenido por el sensor Xtion Pro Live y el mapa 2D. Para la navegación, se ha utilizado el paquete de ROS “move_base”, implementado por Eitan Marder-Eppstein, que contiene un planificador local y global, y que utiliza el barrido laser del Xtion Pro Live para la localización de obstáculos.

Gana un Q.bo jugando con nosotros

Desde que nació este Blog habéis sido muchas las personas que os habéis interesado por la fecha de lanzamiento de nuestro robot Q.bo sin que hasta el momento hayáis obtenido una respuesta clara a esta pregunta.

 

He seguido de cerca muchos proyectos similares a Q.bo que por anticipar una fecha de lanzamiento se han encontrado con serios problemas para mantenerla, desde tener que dar explicaciones a sus seguidores hasta incluso verse obligados a cancelar el proyecto. Estos contratiempos se deben en la mayoría de ocasiones a problemas con proveedores, terceras empresas o simplemente a la falta de experiencia en este tipo de proyectos. Sabíamos que no íbamos a ser una excepción, ya que nuestro proyecto es complejo, maneja muchas variables y se ha realizado con escasos recursos tanto personales como económicos. Es por ello que nunca quisimos dar una fecha concreta sin tener la garantía de cumplirla.

Después de varios años de duro trabajo, miles de problemas resueltos y alguno aún por resolver,  Q.bo por fin está a punto de ver la luz. Nos gustaría haceros partícipes de su nacimiento dándoos la oportunidad de jugar con nosotros a  acertar el día exacto en que saldrá la web oficial de TheCorpora  y ganar uno de nuestros robots Q.bo.

Podéis acceder al concurso desde la página de inicio de TheCorpora y ver las bases del concurso aquí. Os deseamos toda la suerte del mundo, un Q.bo os está esperando.


Gracias a todos los que habéis hecho posible que este proyecto vea la luz muy pronto.

OpenQbo – Distribución Linux basada en Ubuntu, Versión 2.0 (Beta Release)

Cambios respecto a la ultima version de la OpenQbo Distro:

– Cambio de arquitectura de i386 (32 bits) a 64 bits

– Actualización a la versión de Ubuntu 11.10(Oneiric Ocelot)

– Uso de Gnome 3 como gestor de ventanas predeterminado

– Cambios de tema ( menu de login, fondo de pantalla, tema de iconos y de ventanas)

– Actualizado el instalador de la distro a Ubiquity

– Cambiada la versión de ROS de “diamondback” a la versión estable más reciente “electric”

– Firefox pasa a ser el navegador por defecto y  Google Chrome deja de venir instalado por defecto.

Ponemos esta versión Beta a vuestra disposición para que nos ayudeis a mejorarla enviándonos al correo electrónico openqbo@thecorpora.com todas vuestras sugerencias:

  • bugs
  • mejoras en el escritorio ( temas, fuentes, wallpaper, etc )
  • paquetes y/o servicios que quitariais ó añadiriais
  • errores en el arranque y apagado del sistema
  • seguridad
  • cualquier otra cosa que consideréis de interés para incluir en la distro

Puedes descargar la versión Beta desde aquí:

NOTA MUY IMPORTANTE: Se trata de una versión en desarrollo, NO es recomendable su uso en equipos de producción.

QBO conoce a QBO

Los que seguís este proyecto desde hace tiempo sabéis que hace ahora más de 6 años que comenzó. Si algo me ha sorprendido y agradado a partes iguales es la polémica generada en las últimas semanas alrededor del experimento de Qbo reconociéndose en el espejo. No por la publicidad que se ha generado alrededor del proyecto si no porque, de alguna forma, hemos actualizado ese debate que se había perdido hace mucho tiempo: ¿puede una máquina llegar a ser inteligente o autoconsciente?. Desde hace años hemos pasado de interesarnos por crear un cerebro artificial a desarrollar casi de forma exclusiva sistemas mecatrónicos muy sofisticados, pero poco inteligentes o ya programados.

Tras nuestro último vídeo, nos habéis hecho llegar reiteradamente una serie de preguntas muy interesantes, que pueden resumirse en dos: ¿qué pasaría si Qbo tuviera en frente suyo otro Qbo de su misma “especie” exactamente igual a él?, y lo que es más ¿es Qbo “consciente” de su imagen y de lo que está viendo?. Aquí tenéis una respuesta que hemos intentado simplificar al máximo sin entrar ni en temas filosóficos ni éticos, y por supuesto siempre según nuestro propio punto de vista.

Desde muy pequeños, los seres humanos aprendemos a reconocernos ante un espejo gracias a dos mecanismos: porque hemos aprendido a partir de los 8 meses cómo es nuestra apariencia, y porque nuestras acciones o movimientos son “replicadas” en forma de imagen en el espejo. Gracias a que somos conscientes de las acciones que realizamos, y a la vez  podemos reconocerlas en nuestro reflejo, sabríamos que somos distintos de otra persona  “idéntica” a nosotros, si nos pusiéramos delante de ella. Precisamente éste es justo el problema con el que un robot como Qbo debe enfrentarse ante la posibilidad de verse delante de un espejo o encontrar otro robot idéntico a sí mismo.

Inspirados por este proceso de auto reconocimiento en humanos, desarrollamos un nuevo nodo de ROS que entra en acción cuando el nodo “Reconocedor de Objetos”, previamente entrenado, ha identificado un Qbo en la imagen. Utilizando los parpadeos de la nariz para verificar si la imagen que ve el robot corresponde con la acción que está realizando él mismo en ese instante, Qbo puede saber en tiempo real si su imagen está siendo reflejada en un espejo o está viendo otro modelo Qbo diferente a él. La secuencia de parpadeos de la nariz es generada aleatoriamente en cada proceso de reconocimiento, por lo que la probabilidad de que dos robots generen la misma secuencia es muy baja, y más baja aún de que empiecen a transmitirla al mismo tiempo.

Después de que el Qbo de color verde haya reconocido a otro miembro de su “especie”, ambos mantienen una corta conversación. Para esta conversación se ha utilizado el software Julius (reconocedor de voz) y Festival (síntesis de voz), por lo que cada robot reconoce lo que el otro le dice y responde en función de la pregunta o del comentario escuchado gracias a una pequeña base de datos de conocimiento entrenada para tal fin. Gracias a los altavoces, al micrófono y a los sistemas de software mencionados, los robots Qbo son capaces de mantener una conversación utilizando voz sintética.

 

LA CONCIENCIA EN UNA MÁQUINA

Hay quien piensa que la “conciencia” es una capacidad intelectual que permite almacenar conocimiento sobre el mundo y explotar ese conocimiento para tomar decisiones y hacer predicciones de forma constante, tal y como sugiere en su libro On Intelligence Jeff Hawkins, co-fundador de las empresas PALM & HandSpring. Jeff sugiere que el ser humano no deja de ser más que una forma compleja de máquina estadística que intenta predecir en tiempo real y de manera constante respuestas inmediatas ante acciones que se generan en nuestro entorno.

Pero, ¿Qbo podría ser consciente de lo que ve aprende y le rodea?. Para saberlo, primero deberíamos responder a la pregunta de si es posible programar algorítmicamente la conciencia. Existen varias teorías al respecto, unas propugnadas por Roger Penrose, el más crítico con el desarrollo de un auténtico cerebro artificial, quien postula que la autoconciencia puede ser reproducida artificialmente pero no simulada algorítmicamente. Otros, en cambio, postulan que la autoconciencia es un proceso que emerge  como resultado de algoritmos y aprendizajes adecuados. Hoy en día, gracias a la neurociencia y la neurobiología, sabemos que lo que hacemos es el resultado de procesos y mecanismos aprendidos e inconscientes.
Aceptar que una máquina pueda llegar a tener algún tipo de consciencia, podría constituir una profunda herida para el narcisismo humano. Sin embargo, la pregunta que me hago realmente es si para que exista consciencia en una máquina es necesario de un sistema corpóreo “complejo” que soporte, por ejemplo, dolor o frío. Personalmente pienso que NO.

Si tomamos la teoría y las palabras de Roger Penrose, Qbo realmente NO es consciente de sí mismo, y simplemente “simula” un comportamiento algorítmicamente aprendido. En el caso del espejo mediante imágenes procesadas matemáticamente, y en el caso de reconocer a otro miembro de su “especie” mediante una acción mecánica pre-programada de su nariz. Si adoptamos la segunda teoría, Qbo sería real y algorítmicamente consciente de su imagen y de la acción de la nariz (siempre hablando desde un punto de vista matemático ).

En el año 2007 Hod Lipson, ingeniero en Robótica de la Universidad de Cornell, dio una charla brillante sobre la madre de todos los diseños – la evolución- y la toma de conciencia que podría producirse a posteriori en un robot, incluyendo una demostración de su postulado. Por una parte, Hod Lipson sostiene que debemos dejar de crear manualmente robots para que ellos mismos puedan evolucionar mecánicamente, y por otro lado sostiene y demuestra que hay que dejar a las máquinas aprender mediante refuerzos y aprendizaje.

Según la teoría de Hod Lipson, Qbo por el momento no sería más que un montón de motores, electrónica, cámaras, etc  formando un conjunto mecánico que, mediante software, podríamos someter a cierta “selección natural”. Alimentándolo mediante recompensas ante una serie de juegos, retos o simplemente aprendizaje, sería posible que Qbo llegara a hacer aquello por lo que fue recompensado como, por ejemplo, reconocer la cara de una misma persona en diferentes situaciones a base de refuerzo (cosa que por otra parte ya hace ).

¿Quiere todo esto decir que Qbo podría ser consciente de lo que hace o le rodea?, la respuesta es que por el momento, como bien diría Hod Lipson, Qbo no es más que un conjunto eléctrico-mecánico programable con la capacidad mecánica de ver, oír, hablar y moverse. El ecosistema y la comunidad que se genere alrededor de Qbo programándolo y enseñándole dirá si en un futuro podríamos estar asistiendo al nacimiento de “cierta inteligencia espontánea”. Desde luego se trata de una tarea terriblemente ardua imposible de desarrollar por unos pocos ingenieros. Sólo gracias al trabajo de una verdadera comunidad de programadores, diseñadores y profesorado, podremos resolver este reto.

&

FELIZ AÑO NUEVO


 

QBO y el espejo. Que pasaría si…(ACTUALIZADO)

Hace unos días recordaba que alguien me dijo en una ocasión que sólo los seres humanos, los delfines y algunas especies de simios pueden reconocer su imagen en el espejo. Qbo dispone de dos nodos independientes, uno desarrollado para  reconocimiento de personas y otro para reconocimiento de objetos y aunque para todos aquellos que trabajamos en robótica es “obvio” que pasaría si pusiéramos a Qbo delante de un espejo os dejamos un video para aquellos que aún se hacen la pregunta de si se reconocería como persona ( ojos, nariz, cara redonda ) o como un simple objeto.

 

 

Este vídeo no es más que un pequeño experimento en que ponemos a Qbo delante de un espejo para ver si puede aprender a reconocerse a sí mismo. Para eso, utilizamos a la vez el modo “Reconocedor de Objeto” y el modo “Reconocedor de Caras”. Qbo, usando visión estereoscópica al verse delante del espejo, se selecciona a sí mismo como si fuera un objeto y mediante la ayuda de uno de los ingenieros aprende a reconocerse a si mismo. El experimento aparentemente sencillo  toca aspectos psicológicos muy interesantes de auto-consciencia, cuya complejidad es corroborada por el hecho ya comentado anteriormente de que son pocas las especies que se pueden reconocer delante de un espejo. En esta primera versión, un guía humano es el que presenta a Qbo a sí mismo, pero ya estamos trabajando para que el robot sea capaz de “presentarse y auto reconocerse a sí mismo” de forma autónoma cuando se encuentre delante de un espejo.

 

[ ACTUALIZADO 30.Nov ]

Debido a la gran repercusión que está teniendo el vídeo en internet hemos creído conveniente explicar como se realizó dicho experimento “real” en nuestros laboratorios.

En el vídeo, Qbo selecciona de su “máquina de estados” el modo ( software ) “Reconocedor de objetos” para aprender el reflejo de si mismo sobre un espejo, exactamente igual que si pusiéramos un otro objeto delante de sus ojos. ¿Como pudo hacerlo Qbo técnicamente?

El modo  “Reconocedor de Objetos” está implementado para ejecutar simultáneamente diferentes nodos de ROS, uno responsable de mover la cabeza (servos), la base (motores), otro para seleccionar el objeto utilizando la visión estereoscópica del robot y otro para reconocer y/o aprender un objeto. El reconocimiento de objetos se hace mediante descriptores “SURF” y “Bags of Words” (a través de la librería OpenCV) sobre imágenes que Qbo ha guardado en su sistema de almacenamiento.

Qbo tiene algunas respuestas y ciertos comportamientos almacenados en una base de datos de conocimientos que vamos añadiendo a medida que el proyecto avanza para responder o dar ódenes del tipo “¿Que es esto?” o “Haz esto”. Qbo interpreta el objeto “Yo” como si fuera un objeto cualquiera, al cual responde según encuentre la pregunta-respuesta adecuada en su base de datos, aún muy limitada, de conocimiento. Qbo selecciona, en la imágen que ve, su reflejo en el espejo usando sus cámaras estereoscópicas y uno de nuestros ingenieros interactúa ( habla ) con él para que pueda a aprender a reconocerse como un objeto más. Para interactuar, Qbo usa el software open-source Julius, como sistema de reconocimiento de voz ( en el vídeo se le da la orden de que se gire y él interpreta la frase enviando órdenes a la base para que gire 90 grados ), y el Festival como síntesis de voz.

Y a la pregunta, ¿que pasaría si Qbo viese a otro Qbo delante de él?. La respuesta muy pronto!.

(English) Qbo’s Halloween

Disculpa, pero esta entrada está disponible sólo en English.

(English) MicroSoft – Diary of a dream in Silicon Valley ( Day 5 )

Disculpa, pero esta entrada está disponible sólo en English.