En el mundo de la tecnología se suelen ver listas con los mejores y más interesantes productos de cada segmento, pero los malos desarrollos o productos que no han llegado a buen puerto en el mercado suelen caer en el baúl del olvido. Precisamente vamos a hacer un repaso de los 10 productos tecnológicos que con razón o sin ella han sido un verdadero fracaso en el competitivo mercado tecnológico. ¿Adivináis cuáles son?
La informática, como parte de la tecnología, es un mercado en constante evolución y cuando un producto sale al mercado puede “llegar tarde” o simplemente no cumplir las expectativas y pasar a un segundo plano. Este artículo especial está basado en el reportaje original en inglés de PC Authority, y vamos a comenzar haciendo mención a dos proyectos, que si bien no catalogamos dentro de la lista de las 10 peores tecnologías de los últimos años, sí merecen cierto grado de atención.
10.- Realidad virtual
A lo largo de los años, pocas tecnologías han prometido tanto y ha acabado ofreciendo tan poco. Las primeras unidades de realidad virtual comenzaron a llegar en los años 90, constaban de un casco y un mando de dirección y eran capaces de sumergirte en un mundo virtual en el cual podías moverte e interactuar conel escenario representado en tres dimensiones.
Teniendo en cuenta la tendencia actual del mercado así como el momento económico actual, es muy posible que no veamos nada novedoso en este campo a corto plazo, puesto que el siguiente paso en la tecnología implicaría implantes en el sistema nervioso y ello está muy lejos tanto a nivel técnico como temporal.
La realidad virtual se puede catalogar dentro de ese grupo de tecnologías que parecen ser una gran idea, pero que no tienen una aplicación práctica rentable, o al menos no de forma sencilla. El uso para juegos es muy limitado y a nivel empresarial su utilidad actual es prácticamente nula. A día de hoy el término de realidad virtual está limitado a un par de pantallas y a una buena tarjeta gráfica. Si el precio del hardware y software fuera más asequible quizá podríamos ver mejores usos, pero a día de hoy parece que el teclado, ratón y pantalla seguirán con su supremacía frente a la realidad virtual.
9.- Motores de búsqueda alternativos
Nos estamos acercando a una década desde que Google reina de forma indiscutible en el mundo de los buscadores, y en este momento tenemos que aceptar que el sitio de Google es la forma principal de buscar información en la web. Yahoo! y Microsoft están buscando alternativas para intentar acaparar parte del mercado de búsquedas, pero Google ha conseguido posicionarse como “el buscador” de facto.
No siempre ha sido así, y tan sólo tenemos que remontarnos a finales de los 90 para recordar una época en que los motores y servicios de búsqueda eran numerosos y crecían día tras día. Hablamos de servicios como Hotbot, Lycos, Northernlight y AltaVista, entre otros, que luchaban constantemente por conseguir cuota de mercado suficiente para superar al resto.
Tras la caída de las compañías de Internet, Yahoo! y Google renacieron de sus cenizas junto con MSN y posteriormente la carrera ha sido de Google en solitario con la mencionada pareja siguiéndole muy de lejos, sobre todo en nuestro país donde la supremacía de Google es manifiesta.
8.- Reconocimiento de voz
La tecnología de reconocimiento de voz es una de las más prometedoras de los últimos años, pero sin embargo requiere mucha potencia de proceso así como memoria y no ha sido hasta el lanzamiento de los Intel Nehalem cuando los desarrolladores de este tipo de soluciones han afirmado que un procesador es capaz de rendir lo necesario para dicho tipo de aplicaciones.
El reconocimiento de voz es un compendio entre hardware y software, que tiene que ser inteligentemente desarrollado. El problema básico vienen a ser los dialectos regionales así como los distintos idiomas que existen, algo que el software actual no es capaz de gestionar con soltura.
Una consecuencia de dicho problema es que el servicio es uno de los que un usuario abandona cuando comprueba que no es fiable. Cualquier persona que haya tenido que tratar con sistemas de reconocimiento de voz sabrá de lo que hablamos. Ilustremos la experiencia con las llamadas a los servicios de atención al cliente y los largos tiempos de espera intentando “hablar con una máquina” que insiste en que no entiende qué queremos decir y, o bien nos pasa con un operador, o bien nos cuelga.
7.- Apple Lisa
No todo ha salido tan redondo como el iPhone y la gama de iPods en la compañía de Cupertino. El equipo Apple Lisa fue uno de esos equipos quizá demasiado novedosos para la época en la que fue lanzado pero que se vio hundido por una terrible carencia de demanda, debida en cierta forma a su alto precio.
El Apple Lisa fue uno de los primeros equipos integrados de Apple, anterior al Macintosh, y que acusan de copia del Xerox Alto, que sin duda era un sistema increíble para la época. La fabricación de los posteriores Macintosh hizo posible una caída en los precios de los componentes que ayudó a su venta. Sin embargo, Lisa tan sólo quedó como paso intermedio en la cadena de equipos Apple. Muchas de las características del mismo fueron heredadas por los Macintosh, como por ejemplo la multitarea y el entorno gráfico que revolucionó el mercado y sería adoptado a la postre por el resto de sistemas operativos.
El problema principal de Lisa fue el precio. Dado que por el precio de ocho ordenadores Lisa, en aquélla época uno ¡se podía comprar una casa!. Al final Apple tuvo que retirar 3.000 equipos Lisa que no se vendieron.
6.- Ethernet 10 Gbits
La industria nos había preparado para un 2009 que entre otras cosas supondría el año de la acogida masiva del nuevo protocolo de red 10 Gbit Ethernet, que fue anunciado hace tres años. Sin embargo, parece que dicho despegue se está retrasando debido a distintas razones. El hecho es que ningún fabricante está integrando soporte del mismo.
Además de ello, las conexiones actuales de Gigabit Ethernet funcionan suficientemente bien como para tener que desembolsar dinero en toda la infraestructura necesaria para 10 Gbits cuando realmente es algo poco necesario. Otro de los problemas de dicha tecnología es que el cuello de botella en sí no es la conexión de red local, sino más bien la conexión a Internet. Obviamente las redes de área local se beneficiarían de esta tecnología, pero por el momento el ancho de banda disponible en Internet no hace precisamente necesaria ese salto a 10 Gbit Ethernet.
5.- FireWire
La conectividad FireWire aún está en uso, aunque de una manera mucho más reducida de lo que se esperaba. Su lanzamiento llegó cuando USB 1.0 era dominante y apareció como alternativa de alta velocidad al mismo. Tras la llegada del estándar USB 2.0 la gran mayoría de impresoras, cámaras y unidades portátiles de almacenamiento acogieron esa interfaz, dejando de lado las distintas evoluciones de FireWire.
FireWire fue técnicamente superior en términos de rendimiento incluso frente a USB 2.0, pero tuvo muy poca llegada al mercado de consumo. Ésta fue otra lucha de estándares comparable a la que se dio con los formatos de vídeo Betacam y VHS o los formatos ópticos Blu-ray y HD-DVD.
4.- Bluetooth
La conectividad Bluetooth está tomando forma en conexiones esporádicas entre móviles, pero hay un gran problema en la tecnología en sí. Cada fabricante introduce su propio código en la pila Bluetooth y ello es una lacra en cuanto a compatibilidad. Los fabricantes aseguran compatibilidad entre sus productos, pero esa forma de actuar hace complicada su popularización.
Bluetooth se usa a día de hoy principalmente para conectar los terminales móviles a manos libres, transmitir algún archivo, y poco más. Realmente podría haber sido mucho más si la mencionada compatibilidad no hubiera sido un hándicap tan importante.
3.- Itanium
Intel lanzó el procesador puro de 64 bits Itanium envuelto en un manto de optimismo en 2001, pese a ello, las plataformas de servidores no acogieron el procesador tan bien como se esperaba. El problema principal es que los chips, pese a rendir excepcionalmente, no soportan código de 32 bits, lo que ha hecho más reducido el campo de acción de los mismos. Muchos de los posibles compradores de Itanium han decidido esperar a que los desarrolladores optimicen su software para los nuevos chip, es decir para 64 bits.
La espera ha durado más de lo que se esperaba, y aún a día de hoy los desarrollos de 64 bits son contados. El destino de los Itanium se vio aún más complicado tras el lanzamiento por parte de AMD de los procesadores Opteron, que, aunque no eran tan potentes, sí que disponían de compatibilidad para los actuales programas de 32 bits y los venideros en 64 bits.
Intel no ha abandonado completamente esta gama de productos y sus Itanium 2 -que han evolucionado y han adoptado nuevos procesos de fabricación y cambios en su arquitectura- siguen vendiéndose. De hecho curiosamente su cuota de mercado ha crecido en 2008, pero en cualquier caso se trata de un producto minoritario con respecto a otras ofertas en el mercado de los microprocesadores para servidores.
2.- Zune
El éxito de Apple en el terreno de los reproductores de música portátiles con su gama iPod era evidente cuando Microsoft decidió lanzar un producto para competir con ellos. Aquel producto era el llamado Zune, que para muchos analistas resultó ser un reproductor mediocre a pesar de los medios con los que cuenta el gigante de Redmond.
El problema de Zune es que realmente no destacaba en nada, era un reproductor más, pero incluso un poco peor en algunos aspectos y realmente peor en otros con respecto a sus competidores. Microsoft sigue confiando en este dispositivo, que se ha visto renovado con la aparición hace unos meses de un firmware mucho más potente y que ofrece funciones más avanzadas para sus propietarios. Es más: parece inminente la llegada de un Zune HD que tendrá un lanzamiento internacional -hasta la fecha el Zune solo estaba disponible en EE.UU.- y que podría impulsar el papel de Microsoft en este mercado.
1.- Windows Vista
Seguramente a estas alturas todos los que nos leéis sabéis de sobra qué es Vista y qué problemas ha sufrido / hecho sufrir. El sistema operativo de Microsoft tardó más de cinco años en aparecer, y cuando lo hizo surgieron multitud de problemas que limitaron su éxito y popularidad.
Microsoft quiso hacer ver que Vista era el gran sistema operativo que vendría a sustituir a XP en sus últimos años, y a la hora de la realidad, nos encontramos con un sistema operativo en estado prácticamente beta, en palabras de Steve Ballmer.
El problema principal de Vista fueron sus altos requisitos técnicos que, en comparación con los de Windows XP prácticamente exigían una máquina nueva. Por ello, además de los problemas de compatibilidad, las empresas decidieron no dar el paso al frente y la mayoría de usuarios no ha actualizado sus máquinas, manteniendo el antiguo Windows XP aun hoy en día, cuando ese sistema operativo ya ha cumplido 8 años en el mercado.
Microsoft está cambiando su filosofía con Windows 7, un sistema que ya han lanzado en versión Release Candidate abierta, para que los usuarios lo prueben y reporten problemas, y que está resultando mucho más prometedor que su predecesor.