Vector: la navegación táctil de precisión que anticipa una nueva generación de movilidad asistida

Diagrama de un dispositivo portátil que muestra tres partes señaladas: una rueda llamada Haptic Dial que se mueve a izquierda y derecha para guiar al usuario, un botón de encendido en la base del mango y un botón de acción cerca de la rueda para activar funciones

La movilidad exterior autónoma sigue siendo uno de los grandes retos pendientes de la accesibilidad. Decenas de millones de personas con discapacidad visual dependen todavía de ayudas humanas o referencias memorizadas para desplazarse con seguridad. El motivo no es la ausencia de tecnología, sino su precisión limitada.

El GPS integrado en los smartphones, aunque útil, presenta márgenes de error de varios metros. En la navegación peatonal, esa diferencia no es trivial: puede implicar girar antes de tiempo, no localizar un cruce o desviarse hacia una zona peligrosa. La orientación asistida actual funciona, pero no siempre con la exactitud que exige quien depende totalmente de ella. Continuar leyendo “Vector: la navegación táctil de precisión que anticipa una nueva generación de movilidad asistida”

LOOI Robot: Cuando la inteligencia artificial deja la pantalla y ocupa tu mesa

Imagen promocional con enfoque elegante y contemporáneo. El LOOI negro descansa sobre una mesa de madera oscura, con fondo desenfocado en tonos cálidos y grises que aportan profundidad. En la esquina superior izquierda aparece el logotipo “Tangible Future” con un corazón naranja, y a la derecha destacan los textos “LOOI Robot” y el eslogan “Turn Your Smartphone into a Desktop Robot”, junto al logotipo de ChatGPT. El robot muestra ojos semicerrados azul turquesa, transmitiendo una expresión serena, mientras la iluminación lateral resalta el brazo articulado y el acabado mate del cuerpo.

Durante años, la inteligencia artificial ha vivido encerrada en pantallas. En el móvil, en el ordenador, en un altavoz inteligente o, como mucho, en una caja negra sobre la mesa que responde cuando la llamas por su nombre. Hemos hablado con ella, le hemos pedido cosas e incluso le hemos confiado tareas importantes, pero siempre desde cierta distancia: la IA estaba “ahí dentro”, invisible, sin cuerpo.
Eso está empezando a cambiar, y LOOI Robot es una de las señales más claras de ese giro.
Continuar leyendo “LOOI Robot: Cuando la inteligencia artificial deja la pantalla y ocupa tu mesa”

Emerson SmartVoice: cuando el control por voz offline entra en la cocina y el hogar

Imagen de una freidora de aire Emerson de formato rectangular y color negro, con un gran cajón frontal extraído parcialmente donde se ven alimentos empanados en cocción. En el frontal superior hay un panel digital con indicadores de temperatura y tiempo. Sobre la imagen aparecen bocadillos de texto con comandos de voz como “Hey Air Fryer” y “Cook Chicken Nuggets”, y el mensaje “SmartVoice Technology – Make your Cooking Easier and Healthy”.

Durante años, la idea de hogar inteligente se ha identificado casi exclusivamente con la conectividad permanente. Aplicaciones móviles, cuentas de usuario, asistentes en la nube y una dependencia constante de internet se han convertido en el peaje habitual para realizar tareas tan simples como encender un electrodoméstico o ajustar una temperatura. Frente a ese modelo, la propuesta SmartVoice de Emerson introduce una pregunta tan sencilla como incómoda: ¿y si la inteligencia doméstica pudiera funcionar sin conectarse a nada?
Continuar leyendo “Emerson SmartVoice: cuando el control por voz offline entra en la cocina y el hogar”

OpenClaw, el orquestador de agentes de modelos de inteligencia artificial que abre una nueva etapa de autonomía tecnológica: el testimonio de Ignasi Cambra

Captura de la página principal del repositorio GitHub de OpenClaw, destacando su identidad visual, el lema “Your own personal AI assistant”, el icono de la langosta y métricas de comunidad como estrellas, forks, issues y contribuidores.
Durante los últimos años nos hemos acostumbrado a hablar con inteligencias artificiales. Les pedimos que escriban textos, que resuman documentos, que nos ayuden a programar o que respondan preguntas complejas. Son herramientas cada vez más potentes, pero casi siempre comparten una característica fundamental: esperan a que les pidamos algo.
Sin embargo, en paralelo a esa evolución visible, está emergiendo otra mucho más profunda y menos conocida: la de las IAs que no solo responden, sino que actúan. Sistemas capaces de operar un ordenador completo, tomar decisiones encadenadas, interactuar con servicios externos, ejecutar tareas por iniciativa propia y mantenerse activos en el tiempo. No como una conversación puntual, sino como una presencia constante.
Continuar leyendo “OpenClaw, el orquestador de agentes de modelos de inteligencia artificial que abre una nueva etapa de autonomía tecnológica: el testimonio de Ignasi Cambra”

ZebraCross y las soluciones ZEBRA para semáforos acústicos e inteligentes de ILUNION Accesibilidad: qué es cada cosa, cómo se relacionan y dónde están implantados

La imagen muestra la interfaz principal de la aplicación ZEBRACross. En la parte superior aparece la barra de estado del sistema. Debajo se muestra una barra superior azul oscuro con el logotipo de ZEBRA a la izquierda y el nombre “ZEBRA” en letras blancas. A la derecha hay un icono de menú representado por tres puntos verticales. En el cuerpo principal de la pantalla aparece el texto “EMISIÓN APAGADA”, indicando que el semáforo no está emitiendo sonido en ese momento. Debajo se muestran dos botones grandes y cuadrados, centrados verticalmente: El primer botón es de color azul oscuro, con un círculo azul en el centro rodeado por ondas concéntricas, y el texto “Activar semáforo” debajo del icono. El segundo botón, situado justo debajo, también es azul oscuro y muestra un icono de altavoz amarillo emitiendo ondas sonoras, con el texto “Emitir mensaje”. Este botón permite lanzar un mensaje sonoro desde el sistema. En la parte inferior de la pantalla aparece una sección titulada “Dispositivos cerca de mí”, con un interruptor deslizante a la derecha que está en posición apagada. Debajo se indica el estado “Desactivado”, lo que significa que la detección de dispositivos cercanos no está activa.

ILUNION Accesibilidad, entidad del Grupo Social ONCE, lleva más de una década evolucionando los semáforos accesibles en España. El recorrido ha ido desde avisadores acústicos básicos y permanentes hasta soluciones inteligentes, selectivas, configurables y plenamente integradas en estrategias de ciudad inteligente.
En este ecosistema tecnológico conviven hoy varios nombres que con frecuencia se confunden: ZebraCross, ZEBRA y ZEBRA Haptic. Entender qué es cada uno, cómo se complementan y qué necesita realmente un cruce para ser accesible resulta clave para valorar su alcance real y evitar malentendidos habituales.
Continuar leyendo “ZebraCross y las soluciones ZEBRA para semáforos acústicos e inteligentes de ILUNION Accesibilidad: qué es cada cosa, cómo se relacionan y dónde están implantados”

PiccyBot, una puerta a la visión a través de la palabra

La imagen muestra una composición promocional sobre fondo oscuro con un degradado azul y morado. A la izquierda aparece el texto grande “PiccyBot AI Descriptions” en letras blancas y amarillas. Debajo del texto hay iconos blancos que representan un vídeo (claqueta de cine) y un conjunto de fotografías apiladas. A la derecha se ve la pantalla de un iPhone con la app PiccyBot abierta. En la pantalla aparece un robot simpático de color gris con un solo ojo central, brazos redondeados y un pequeño cuerpo. En la parte superior del móvil se lee “What is in this image?”. El conjunto transmite una idea de tecnología accesible y moderna.

En los últimos años, la inteligencia artificial se ha convertido en un factor decisivo en el acceso a la información para las personas ciegas y con baja visión. Herramientas que antes parecían experimentales hoy forman parte de la vida cotidiana, ampliando la autonomía personal y facilitando el acceso a contenidos visuales, educativos y culturales que tradicionalmente dependían de la mediación de terceros.

En este contexto surge PiccyBot, una aplicación móvil diseñada para describir imágenes y vídeos mediante inteligencia artificial, transformando lo visual en información hablada y comprensible. Este artículo combina el análisis tecnológico con la experiencia real de uso para examinar cómo esta herramienta está modificando, de forma práctica y tangible, la relación de las personas ciegas con el contenido visual en su día a día.
Continuar leyendo “PiccyBot, una puerta a la visión a través de la palabra”

La retina ya no es un callejón sin salida: las terapias que pueden cambiar la retinosis pigmentaria en 2026

Diagrama ilustrativo de tratamientos para la Retinosis Pigmentaria (RP). En el centro, aparece el título "RP Treatments". Hay cuatro secciones, cada una con imágenes y texto descriptivo: A la izquierda arriba (A. Gene Therapy): Un ojo con una aguja aplicando una inyección subretiniana, mostrando el reemplazo de un gen mediado por vectores. A la derecha arriba (B. Stem cell treatment): Un ojo con una aguja administrando una inyección intravítrea, representando el tratamiento con células madre. Abajo a la izquierda (C. Optogenetics): Células nerviosas, luz y la administración de una proteína fotosensible a través de inyección intravítrea. Abajo a la derecha (D. Neuroprotective): Un ratón recibiendo una inyección que indica el uso de agentes neuroprotectores, como pequeñas moléculas o proteínas. Cada tratamiento tiene un título con color distintivo debajo de la imagen correspondiente.

Durante décadas, la retinosis pigmentaria (RP) y otras enfermedades hereditarias de la retina han sido sinónimo de una frase incómoda pero habitual en consulta: “no hay tratamiento”. La ciencia avanzaba, sí, pero lo hacía a trompicones, con terapias muy específicas, pensadas para mutaciones concretas y, en muchos casos, solo útiles en fases tempranas de la enfermedad. Para quienes ya habían perdido gran parte de la visión, el horizonte era básicamente adaptarse, aprender a vivir sin lo que se iba apagando.
Ese marco está empezando a resquebrajarse. No porque haya aparecido una cura milagrosa, sino porque están madurando enfoques que atacan el problema desde ángulos completamente distintos: reprogramar células retinianas que aún sobreviven, proteger los fotorreceptores restantes con fármacos sistémicos, editar el ADN con mayor precisión, modular redes génicas completas en lugar de un solo gen, o rescatar función visual mediante terapias celulares. Y, por primera vez, una terapia optogenética para RP avanzada podría estar a las puertas de una decisión regulatoria histórica.
Continuar leyendo “La retina ya no es un callejón sin salida: las terapias que pueden cambiar la retinosis pigmentaria en 2026”

Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro

La imagen muestra unas gafas inteligentes negras de estilo clásico tipo wayfarer moderno, vistas en perspectiva lateral y ligeramente desde arriba, sobre un fondo completamente blanco. La montura tiene una forma rectangular con bordes suavemente redondeados, muy similar a unas gafas graduadas tradicionales, con un diseño sobrio y atemporal pensado para no llamar la atención. En la patilla izquierda, cerca de la bisagra, se aprecia claramente una cámara integrada, visible como un pequeño círculo con lente. La patilla es algo más gruesa de lo habitual, lo que indica que en su interior alberga componentes electrónicos, aunque sin romper la estética clásica. En la parte exterior de la patilla se distingue un logotipo pequeño y discreto. Los cristales son transparentes y la montura presenta un acabado negro mate, reforzando un aspecto elegante, funcional y cotidiano. Las patillas están abiertas, mostrando su curvatura natural hacia el extremo que apoya en la oreja. En conjunto, el diseño es discreto y equilibrado, pensado para llevarse durante todo el día y pasar por unas gafas normales a simple vista.

Durante la última década, las gafas inteligentes han avanzado con dificultad, atrapadas entre dos extremos poco satisfactorios: dispositivos cerrados, férreamente controlados por grandes plataformas, y propuestas de realidad aumentada visual tan espectaculares como poco viables para el uso cotidiano. En ese contexto, Mentra irrumpe con una propuesta deliberadamente distinta, casi contracultural: gafas ligeras, sin pantalla por ahora, centradas en la inteligencia artificial contextual y sostenidas por un sistema operativo abierto diseñado para crecer con el tiempo.
Este artículo analiza la propuesta técnica, conceptual y estratégica de Mentra a partir de la información pública disponible y de demostraciones iniciales. A día de hoy, las gafas no se comercializan en Europa y no existen valoraciones independientes de usuarios finales en nuestro entorno. El análisis se ofrece por el interés de su enfoque abierto y su filosofía de plataforma, no como recomendación de compra.
Continuar leyendo “Más allá del hardware: la propuesta abierta de Mentra para las gafas inteligentes del futuro”

Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros”

Imagen promocional de VoiceVista donde se combina el nombre de la app, varios modelos de iPhone, el logotipo de Apple y el icono de la App Store, junto a un símbolo sonoro. Representa a VoiceVista como aplicación iOS centrada en audio espacial y accesibilidad.

Durante años, la tecnología de asistencia para la movilidad de las personas ciegas ha avanzado impulsada por el GPS, el audio secuencial y las instrucciones paso a paso. Sin embargo, ese enfoque no siempre encajaba con la forma natural en que las personas perciben y construyen mentalmente el espacio. Hubo una tecnología que propuso algo radicalmente distinto: no decir por dónde ir, sino permitir escuchar el mundo. Aquella idea se llamó Microsoft Soundscape. Hoy, su legado continúa bajo un nuevo nombre: VoiceVista.
Continuar leyendo “Voice Vista: una app de asistencia a la movilidad con la que recorrer “Paisajes Sonoros””

Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)

La imagen es una ilustración técnica explicativa del sistema de asistencia visual multimodal descrito en el paper de Nature Machine Intelligence, y muestra de forma clara cómo se integran visión artificial, audio, háptica y entrenamiento en un único ecosistema centrado en la persona. En la parte izquierda, aparece una persona caminando en un entorno interior (una habitación con sofá, mesa y una silla destacada como objetivo). El usuario lleva: • Gafas con cámara RGB-D, situadas a la altura de los ojos, que capturan información frontal del entorno. • Auriculares de conducción ósea, indicados mediante ondas sonoras, que proporcionan retroalimentación auditiva sin bloquear el oído. • Pieles electrónicas hápticas (A-skin) colocadas en ambas muñecas, diferenciadas para el lado izquierdo y derecho, que transmiten información sensorial-motora mediante vibración. • Plantillas inteligentes en los zapatos, señaladas como “smart insoles”, encargadas de registrar la marcha y el movimiento del usuario. En el suelo se representa el campo de percepción artificial, con zonas sombreadas que indican cómo el sistema detecta obstáculos y calcula trayectorias hacia un objetivo concreto, en este caso una silla marcada como “target”. Una línea discontinua muestra la ruta óptima que el sistema sugiere para llegar hasta ella. En la parte superior derecha, se ve un monitor que representa la plataforma de entrenamiento en realidad virtual. En la pantalla aparece un avatar dentro de una habitación virtual muy similar al entorno real, lo que ilustra cómo el sistema permite entrenar en VR antes de enfrentarse al mundo físico. En la parte inferior derecha, un diagrama por pasos resume el proceso completo de uso: 1. Setting target: el usuario define el objetivo mediante voz. 2. Searching target: el sistema localiza el objeto. 3. Navigating to target: guía al usuario mediante audio y vibración. 4. Reaching target: asistencia háptica fina para alcanzar y agarrar el objeto.

Durante años, la tecnología de asistencia visual ha avanzado impulsada por dos motores principales: un incremento constante de la potencia de cálculo y algoritmos cada vez más precisos. Sin embargo, ese progreso técnico no siempre se ha traducido en una adopción real por parte de las personas ciegas. Muchos sistemas prometedores han quedado confinados al laboratorio o a la demo espectacular por una razón tan simple como incómoda: no estaban pensados para cómo aprende, se mueve y percibe un ser humano real.
Continuar leyendo “Diseño centrado en el ser humano: el sistema multimodal chino que replantea la movilidad asistida para personas ciegas (investigación)”