No siempre un producto con gran
hardware o con muchas prestaciones termina siendo un éxito comercial, de hecho, a lo largo de la historia de la tecnología podemos encontrar un buen número de ejemplos de proyectos que terminaron siendo un gran fracaso al llegar al mercado a pesar que, en las empresas que fueron concebidos, pensaran que eran grandes ideas.
Smartphones, tabletas,
smart TVs o
ultrabooks son algunos de los dispositivos que, hoy en día, podemos encontrar en el mercado;
gadgets al alcance de nuestra mano que nos hacen más sencillo estar conectados a Internet, acceder a información o, incluso, a contenidos audiovisuales. Nadie puede decir que estas tecnologías no hayan calado bien entre los usuarios y, por tanto, pueden considerarse un éxito desde el punto de vista tecnológico y, por supuesto, comercial; sin embargo, entre estos éxitos, lógicamente, también encontramos
fracasos y grandes fiascos comerciales a pesar de que, en algunos casos, hubiesen sido bien concebidos desde el punto de vista tecnológico.
Está claro que antes de llegar al éxito, todas las empresas se enfrentan a algún fracaso, de hecho, se suele decir que el fracaso es lo que te hace aprender pero, aún así, no siempre lo que parece genial en una presentación en Power Point, al materializarse, termina encandilando al consumidor y, a pesar de los esfuerzos, puede terminar provocando hasta el hundimiento de una compañía.
Hace una semana, Google presentó las características técnicas de
Google Glass, un proyecto que ha generado un alto nivel de expectativas por las posibilidades que tiene el concepto que Google ha desarrollado y, sin embargo, para ser un dispositivo en la senda del
wearable computing ofrece una autonomía extremadamente limitada y, en mi opinión, puede ser algo que se convierta en un gran dispositivo muy poco práctico. Lógicamente, esto es una opinión personal y al final es el mercado, y por tanto los usuarios, los que terminan haciendo inclinar la balanza hacia el éxito o hacia el más estrepitoso fracaso, algo que terminó pasando con estos
productos y proyectos que fracasaron estrepitosamente al llegar al mercado:
Televisión interactiva
La televisión, durante bastantes años, fue un canal unidireccional; es decir, un canal de difusión en el cual el espectador consumía los contenidos que se le mostraban. Si bien ahora, gracias a las redes sociales, podemos interactuar con otros usuarios y compartir qué estamos viendo u opinar en tiempo real; en muchos aspectos el modelo de emisión de contenidos no ha cambiado y no encontramos opciones para interactuar con un contenido desde nuestro televisor.
En el año 1983, la
AT&T desplegó un piloto de servicios avanzados de televisión llamado
Viewtron que instalaba en el hogar de los usuarios un
set-top-box con una conexión de datos (en aquellos años un módem que usaba la red telefónica convencional) que nos permitía acceder a contenidos de prensa o, incluso, encargar comida. Este proyecto supuso una inversión de alrededor de 50 millones de dólares pero solamente tenía una cuota de mercado de 15.000 abonados puesto que, en aquella época, los PCs se habían vuelto extremadamente populares y eran dispositivos mucho más flexibles que el Viewtron y sus servicios, por lo que en 1986 el servicio se retiró.
Hoy en día, nuestros
Smart TVs nos permiten conectarnos a Internet y acceder a contenidos, pero ha supuesto un cambio de hábitos de consumo que en el año 1983 no llegó a darse y, de hecho, era algo tan avanzado que pocos usuarios tuvieron interés en transformar su televisión en algo más que un aparato para recibir señales de TV.
Subtítulos, contenidos en otros idiomas o la guía de programación son algunos de los "extras" que los servicios de televisión por cable, televisión IP o la TDT nos puede ofrecer pero, a principios de los años 90, en España alguien pensó que las televisiones de la época podrían complementarse con la "interactividad" y ofrecer servicios de valor añadido. ¿El invento? El
Telepick.
El Telepick fue un gran fiasco tecnológico que también llegó demasiado pronto al mercado y que se anunció como un "punto de inflexión" en una España que andaba entre unos Juegos Olímpicos y una Exposición Universal. El dispositivo también era un
set-top-box que ofrecía un
display en el que mostrar contenidos, una impresora integrada y, claro está, requería conexión a la red telefónica para usar su módem. El dispositivo prometía a los usuarios la participación concursos de televisión y, lo más memorable, imprimir las recetas del programa de cocina de la época, todo ello por el precio de 22.000 pesetas de la época, es decir, 132 euros.
¿El resultado? A principios de 1993 se puso a la venta y al año siguiente se retiró con la quiebra de la empresa que operaba los contenidos para Radio Televisión Española, apenas se vendieron 13.000 unidades y la impulsora del proyecto, la televisión pública de España apenas integró los contenidos interactivos en su programación.
Viewtron y Telepick son dos ejemplos de "televisión interactiva temprana" que terminaron en fracaso pero no son los únicos, Warner Communications lanzó en Ohio en el año 1977 el proyecto
QUBE y también se terminaría retirando 7 años más tarde (en 1984):
Nexus Q
Ahora que estamos cerca del Google I/O 2013, quizás sea un buen momento para recordar la edición 2012 del gran evento de Google para tener en cuenta un producto que se presentó y que había nacido muerto en origen:
el Nexus Q.
El Nexus Q, desde el punto de vista tecnológico, era un dispositivo de alta gama y, de hecho, era algo que se reflejaba en su precio de 299 dólares. Un precio nada competitivo por un dispositivo para ofrecernos la posibilidad de acceder a los contenidos de nuestro
smartphone y los de Google Play en nuestro salón. El dispositivo llegó a Google Play, en el mercado de Estados Unidos, y tal y como llegó acabó marchándose para no volver.
WiMAX
WiMAX (Worldwide Interoperability for Microwave Access) es una tecnología de transmisión basada en radioenlaces de microondas que, quizás, a muchos les sorprenda que pueda estar en esta lista. La tecnología WiMAX nos ofrece servicio en la banda de 2,3 a 3,5 GHz y tiene una cobertura de alrededor de 60 kilómetros de radio, una ventaja interesante que ha hecho que este tipo de servicios (también con LMDS, que se considera como pre-WiMAX) haya sido la
tecnología preferente para cubrir zonas rurales en las que, por ejemplo, no llegaba el ADSL y tampoco el 3G.
¿Y entonces? ¿Por qué WiMAX está aquí? WiMAX es una tecnología de la que venimos oyendo hablar desde hace, prácticamente, 9 años y en este tiempo, no ha dejado de ser una tecnología para accesos en zonas rurales o, en el caso de zonas urbanas, una alternativa barata al ADSL que han abrazado muchos operadores
low-cost de ámbito local que
no siempre han ofrecido a sus clientes una calidad de servicio aceptable o unos tiempos de respuesta adecuados.
Ortel
De hecho, en estos casi 10 años,
WiMAX podría haber copado el mercado porque el despliegue es mucho más sencillo que el de 3G (requiere muchos menos centros emisores) o el de FTTH pero
los operadores que usaban esta tecnología no han sabido aprovechar la oportunidad y optaron por el segmento
low cost local dejando escapar una posible ventaja en el rápido despliegue o bien centrándose en la gama de empresas como tecnología de respaldo o principal de acceso (con unos costes bastante considerables ligados a la calidad del servicio).
¿El resultado? En España, el
FTTH comienza a tomar un buen ritmo en su despliegue,
LTE está comenzando a tomar posiciones, empezamos a ver servicios combinados de móvil y acceso fijo de datos; todo un mercado de servicios en el que WiMAX ha terminado totalmente desplazado y, en muchos casos, es una singularidad dentro de la oferta disponible (por no hablar de proyectos públicos con WiMAX que se han quedado algo estancados en el tiempo) y parece que el futuro caminará por la
combinación de tecnologías móviles con redes Wi-Fi y no parece que WiMAX vaya a tener mucho peso.
UMPC y Tablet PC
Tabletas,
smartphones y
ultrabooks son algunos de los dispositivos que podemos utilizar para desempeñar nuestro trabajo, de hecho, cada vez son más los profesionales que combinan su ordenador tradicional con los dispositivos móviles y usan estos para salir a una reunión o incluso de viaje. La movilidad siempre ha sido un requisito que hemos pedido a los ordenadores portátiles, es decir, autonomía, potencia y bajo peso; algo que se intentó con los
netbooks (aunque no en potencia o prestaciones) si éxito y que también se intentó con
el UMPC y el Tablet PC.
HP Elitebook 2740p
Al hablar de
tablet uno tiende a pensar en un iPad o una Samsung Galaxy Tab pero, realmente, el concepto es algo más antiguo y hemos remontarnos al año 2001 para recordar el
Microsoft Tablet PC. Este ordenador portátil cuya pantalla táctil se podía plegar y nos permitía escribir con su lápiz a mano alzada, fue una idea de Microsoft para el segmento empresarial al que le ofreció, incluso, una edición especial de Windows XP (Windows XP Tablet PC Edition).
Aunque en cierta medida el Tablet PC nos recuerda a los dispostivos híbridos de hoy en día, este ordenador portátil era muy pesado y, la verdad, apenas aportaba valor frente a la oferta de ordenadores portátiles de la época porque, aunque fuese de tamaño algo más reducido,
seguía siendo un gadgetpesado. En el sector consumo apenas caló y, en el empresarial, fue algo que se vio en el sector sanitario e, incluso, también era utilizado por la policía pero seguía siendo un portátil con una pantalla singular y que, en muchos casos, se seguía usando como un portátil (curiosamente aún podemos ver algunos en el mercado).
Doubleko
El
UMPC también buscaba cubrir esas necesidades de movilidad de los profesionales aunque, la verdad, también terminó siendo otro gran fiasco tecnológico. Este concepto, desarrollado por Microsoft, Intel, Sony y Samsung, entre otros fabricantes, proponía dispositivos de bolsillo (7 pulgadas) que funcionasen como sustitutos de los ordenadores portátiles convencionales; unos
gadgets ligeros sin demasiada potencia y bajo consumo que, a pesar de su factor de forma,
no eran cómodos de manejar si les instalabas un Windows XP.
Sega Dreamcast
La consola
Sega Dreamcast fue la última consola de videojuegos producida por Sega y supuso el punto final de esta compañía en el ámbito del
hardware (cambiando su modelo de negocio para enfocarlo en los juegos que ha terminado vendiendo a sus antiguas rivales). Si bien esta consola de videojuegos destacó por ser una de las primeras en ofrecer juego
online y se lanzó en 1998 con el objetivo de hacer frente a la PlayStation de Sony y recuperar el terreno perdido con la fallida Sega Saturn,
el anuncio de la PlayStation 2 en Japón en abril de 1999 hizo que, de repente, se perdiese el interés en esta consola en este país.
Wikipedia
La Dreamcast sufrió un cúmulo de
problemas comerciales y empresariales. Si bien se vendió bien en Estados Unidos, la llegada de PlayStation 2 al mercado en el año 2000 hizo cambiar todo el panorama y eso que, al principio, la consola de Sony sufrió una rotura de
stock ante la gran demanda existente. Sega sufría una gran crisis interna y varios de sus proyectos se habían ido al traste a pesar de las inversiones, si a esto le sumamos la pérdida del interés en la Dreamcast frente a Sony que ni tan siquiera pudo paliar la bajada del precio (la consola costaba la mitad que la PS2),
el hardware se terminó convirtiendo en un lastre para la compañía que no le quedó otro remedio que reinventarse y dejar el negocio de las consolas (y eso que andaban proyectando una Dreamcast 2)
Otros ejemplos
Otras tecnologías y dispositivos que también se quedaron por el camino y se convirtieron en auténticos fiascos son el
Laserdisc, el
HD DVD, Windows Vista y
Windows Millenium Edition,
WebOS y la tableta TouchPad de HP, el
Nokia N-Gage,
Ping o el famoso
Google Wave que, a pesar de su potencial, no llegó a cuajar como servicio pero que, curiosamente, ha tenido
vida fuera de Google.
Fuente:
http://alt1040.com/2013/04/5-tecnologias-que-fracasaron-estrepitosamente