Bloque
1
Introducción a la
informática
Actividad
1
Ciencia y tecnología
Actividad 1.1
1-Describe
los cinco avances tecnológicos actuales que te resulten más sorprendentes.
a)
El vehículo espacial.
b)
El robot espacial.
c)
El .
d) El sistema para evitar que los líquidos se adhieran en
cualquier tipo de superficie.
e) Las flyknit
Raser
Actividad 1.2
1-menciona tres
desarrollos tecnológicos que imagines que se darán en el futuro.
a)
Que los educadores en vez de humanos sean robots.
b)
Que las computadoras en vez del teclado funcione con la voz humana.
Actividad 1.3
Con la ayuda de tu
profesor, organízate en grupos pequeños con tus compañeros de clase y realiza
lo que se pide.
1-investiga en tiendas de
computación, en revistas o en una enciclopedia, que nuevos equipos periféricos
existen (por lo menos 3) para las computadoras actuales y para qué sirven.
Periférico
Utilidad
a)
teclado (Keyboard)
Dispositivo de entrada, que por medio de un conjunto de teclas de entrada
permite al usuario comunicarse con la computadora. Los teclados de las
terminales y de las computadoras personales contienen las teclas de una máquina
de escribir estándar, además de un cierto número de teclas especiales.
b)
lapiz óptico (Optical
Reader)
Muy utilisado por nosotros en los grandes supermercados, los cuales interpretan
información codificada mediante un sistema de barras.
c)
micrófono (Microphone)
permite por medio de la voz indicar
alguna instrucción a la computadora. Ya comenzamos a ver a nuestro rededor
sistemas de cómputo basados en el reconocimiento de voz que puede efectuar una
computadora mediante una tarjeta instalada específicamente para convertir la
voz en bits y viceversa, así ya comenzamos a ver aparatos controlados por voz,
como algunos que nos contestan por teléfono cuando llamamos a algún banco para
pedir nuestro saldo.
2-¿Qué tipo de procesador tiene la computadora de tu escuela?
- Inter (r) Pentium (r) CPU G630@270Ghz 2.70Ghz.
3-¿Qué sistema operativo la computadora del laboratorio de
computo de tu escuela?
- Windows 7 profesional.
4-Escribe el nombre de tres de las aplicaciones o programas que
tienen las computadoras de tu escuela.
a)
-Auto card 2007 (programa de diseño).
b)
-Edusoft (programa se ingles).
c)
-Microsoft office2010.
5-Identifica las marcas comerciales de los siguientes
componentes de las computadoras de tu escuela.
- monitor:
DELL.
- Ratón: DELL.
- Teclado: DELL.
- Impresora: DELL.
Actividad 1.4
·
1-aprovechando tu
visita a una tienda de computadora, investiga los nombres de dos programas que
realicen cada una de las siguientes actividades
Procesador de textos
-Microsoft
word.
-Word pad.
Hojas o libros de cálculo
-Word perfet.
-Writer de
openofice.
Presentaciones electrónicas
-Power point.
-Open Offices org impress.
Bases de datos.
-Acord.
-Isis/base.
2-si pudiste ver la ventana
propiedades del sistema para saber qué tipo de procesador tenia tu computadora,
averigua cuanta memoria RAM tiene.
Memoria RAM: -4gbs. GB.
3- Escribe debajo de cada figura, de
tipo de personal informático se trata:
- Un maestra
-Un estudiante
-Un tecnico
Actividad 1.5
1-relaciona las actividades que realiza la computadora con las unidades de la CPU poniendo el número que
corresponde. Sigue el ejemplo.
(1) Suma 3+4+5+8+25.
(2) Lee el numero 8 y lo lleva al monitor.
(3) Almacena el valor 13 y lee lo que
está en la dirección FF2A.
(1) Imprime el archivo carta.doc.
(3) Almacena como C, el resultado de
la operación A+B.
(1) X es 25; Y es 15.
(2) Avisa a la impresora que se
enviara un archivo para imprimir.
1. Unidad aritmética y lógica.
2. Unidad de control.
3. Unidad de memoria.
Las computadoras tienen una manera lógica
de operar, como la mayoría de las cosas en este mundo. Su funcionamiento se
puede resumir en tres pasos básicos.
De manera muy parecida suceden los
acontecimientos de su vida: la entrada de datos son tus acciones y actitudes;
el procesamiento se lleva a cabo en tu interior y en el interior de la sociedad
en que vives, y los resultados son tus triunfos o tus fracasos, y los de la sociedad
en su conjunto.
2-relaciona con una línea las
acciones de la izquierda con los resultados de la derecha.

xicto
Actividad 1.6
1-investiga el funcionamiento de un
termómetro clínico y analízalo.
·
¿Cuál
sería su unidad de entrada?
Bulbo
·
¿Cuál
sería su unidad de proceso?
Vástago
·
¿Cuál
sería su unidad de salida?
Mercurio
2-investiga y contesta. ¿Qué miden los siguientes instrumentos?
Escribe cual sería la unidad que se pide al final.
·
Manómetro

Unidad de salida
·
Pluviómetro: su unidad de
proceso se llama colector.
·
Voltímetro
·
Unidad
de salida:
·
Unidad de proceso:
·
Unidad
de entrada:
Actividad 1.7
Con la ayuda de tu profesor,
organízate en grupo pequeños con tus compañeros de clases y realiza lo que se
pide.
1. Escribe en una hoja
cuadriculada cada una de las letras del alfabeto y, frente a ellas, su
correspondiente representación grafica en códigos Morse y braille. Investiga en
una enciclopedia los códigos. 
2. ¿para que se utiliza el código braille?
Este es un sistema de lector-escritura utilizados por ciegos.
Actividad
1.8
1. Representa con un byte, mediante
ceros y unos, la letra Y mayúscula del código ASCII.
|
Bit7
|
Bit6
|
Bit5
|
Bit4
|
Bit3
|
Bit2
|
Bit1
|
Bit0
|
|
|
|
|
|
|
|
|
|
Actividad
1.9
1. La letra A se encuentra en la posición decimal 65 y la z
en la 90. Repasa la tabla ASCII de las
mayúsculas y forma tu nombre representado cada letra con un byte.
|
binarios
|
27
|
26
|
25
|
24
|
23
|
22
|
21
|
20
|
|
|
Decimal
|
128
|
64
|
32
|
16
|
8
|
4
|
2
|
1
|
|
|
|
letra
|
Posición ASCII
|
|
|
|
|
|
|
|
|
N
|
Bit7
|
Bit6
|
Bit5
|
Bit4
|
Bit3
|
Bit2
|
Bit1
|
Bit0
|
|
|
O
|
|
|
|
|
|
|
|
|
|
|
M
|
|
|
|
|
|
|
|
|
|
|
B
|
|
|
|
|
|
|
|
|
|
|
R
|
|
|
|
|
|
|
|
|
|
|
E
|
|
|
|
|
|
|
|
|
|
|
S
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Actividad 1.10
1-observa los aparatos de tu casa y
anota en las líneas de abajo cuales crees que sean analógicos y cuales digitales.
Analógicos
Digitales
1)
-reloj
2)
-cámara
-DVD - cámara. - televisión.
2-investiga en una enciclopedia, en revistas de computación, en
una enciclopedia virtual como Encarta, o en el departamento de cómputo de una
universidad de tu comunidad, cuales son las características y aplicaciones de
una supercomputadora. Compáralas con las de la computadora de tu escuela.
Las principales características
de una supercomputadora son:
- procesan gran cantidad de información en poco tiempo.
- Son las más potentes y rápidas.
- Cuentan con un control de altas temperaturas.
En comparación con la de mi escuela la diferencia es que la
supercomputadora tiene más capacidad de procesar datos todos en un mismo
tiempo; además de que traen su propio sistema de enfriamiento entre otros.
Actividad 1.11
1-Organiza con tus compañeros grupos de cuatros a seis integrantes
y visiten tiendas de computadoras para investigar el nombre de tres importantes
empresas fabricantes de microcomputadoras. Comenten, junto con tu profesora o
profesor, cuales son las tres más importantes de tu localidad:
a) DELL.
b) HP.
c) IBM.
2-Cada uno de los grupos debe ir a una tienda de cómputos
diferentes. Preguntan las características de la mejor computadora que tenga a
la venta y compárenlas. Anota aquí las de la computadora con mejores características:
Características:
a) . Sistema
operativo: Intel (R) core(TM)2 Duo CPU T6600 @ 2.20Ghz 2.20Ghz
b) Memoria Ram:
4,00Gb.
c) Capacidad de almacenamiento
de disco duro: 300Gb.
d) Procesador:
Windows 7 ultímate.
Actividad 1.12
1-acude a un supermercado cerca de tu
casa y pregunta para que utilizan la computadora. En los supermercados utilizan las computadoras como caja registradora, para
la administración y controles internos
como inventarios.
2-pregunta
en la administración de tu escuela que uso dan a las computadoras.
Para usos académicos, calificar exámenes, realizar trabajos, llevar control
de asistencias, para uso de oficina como guardar archivos.
3-en
tu próxima visita al doctor, pregúntale para que usa la computadora.
En la medicina: Se utilizan para consultar los
números de la sala que necesite el paciente, también para imprimir la receta
escrita por él mismo por el ordenador, y otras cosas más.
4-investiga que aparato o
dispositivos de los automóviles o del hogar utilizan computadoras
.
Automóvil. Hogar.
a)
GPS a)
lavarropas
b) microondas.
C) televisión
D) aire acondicionado.
Actividad 1.13
1-imagina un mundo sin computadora y descríbelo brevemente.
El mundo sin computadores sería un
mundo muy limitado, pues no habría comunicación al exterior excepto por
teléfono celular pero también hay que tener en cuenta que muchos negocios y
aportes se han hecho a esta herramienta llamada computadora.
También no podríamos compartir con amigos o familiares lejanos ya que es muy
difícil localizar a un contacto lejano si no es por una Red Social.
Creo que la economía sería igual limitada y todo se vendría abajo, puesto que
por Internet se hacen grandes compras y es uno de los medios de negocios más
usados del mundo.
Sería también muy difícil darse por enterado de cosas que no pasan por
televisión, hay veces censuran, aunque pienso que una computadora sin Internet
no sirve para nada... Así que también va en torno a la Internet...
El mundo no sería igual, Cambiaría solo nuestra forma de vida.
Con aspectos positivos y negativos, claro...
2-¿crees
que por el hecho de que alguien sepa más que tú sobre computadora, tiene
derecho a entrar en tu computadora para husmear o robarte información? describe
algunas normas éticas que consideres validas para remediar esta situación.
Actividad 1.14
1-¿qué piensas que le
sucedería a una persona si alguien borrara de las computadoras todos sus registros de identificación como
acta de nacimiento, registro del seguro social, licencia de conducir y cuentas
bancarias?
Bien en mí pensar… si
sucediera eso automáticamente esa persona no existiera en la sociedad.
2-Discute con tus compañeros sobre que
normas éticas se deberían aplicar al utilizar las computadoras, para afianzar
cada uno de los siguientes valores:
a)
Libertad: libertad de expresión sin
tener que dañar, desacreditar a alguien en su cometario.
b)
Respeto: respetando las informaciones
personales de cada individuo y a su persona.
c)
Honradez:
Actividad 1.15
1-con la ayuda de tu
profesor, organicen el grupo en seis equipos para investigar sobre los
siguientes temas de computación:
a) La historia de
los inicios de la computación, desde los primeros instrumentos de cálculo hasta
las primeras maquinas mecánicas de calcular.
Una de las primeras herramientas mecánicas del cálculo fue el
ábaco en el medio oriente, el cual se compone de un marco atravesado por
alambres y en cada uno se deslizan una serie de argollas.
Tiempo después aparecen las
estructuras de Napier, que se utilizaron para multiplicar.
En 1642, Blaise Pascal, desarrolló una
calculadora de ruedas engranadas giratorias, (antecedente de la calculadora de
escritorio), sólo podía sumar y restar, se le llamó la "Calculadora
Pascal".
En 1671 Gottfried Leibnitz, construyó
la calculadora sucesora a la de Pascal la cual, podía efectuar las cuatro
operaciones aritméticas
Charles Babbage, matemático e
ingeniero inglés, es considerado el Padre de la computadora actual, ya que en
1822, construyó la máquina de diferencias , la cual se basaba en el principio
de una rueda giratoria que era operada por medio de una simple manivela.
Después ésta máquina fue sustituida por otra que podía ser programada para
evaluar un amplio intervalo de funciones diferentes la cual, se conoció como
"Máquina Analítica de Charles Babbage",
Años después, aparece Herman
Hollerith, quien, en 1880, inventó las máquinas perforadoras de tarjetas,
inspiradas en el telar de Jacquard, y la finalidad de la máquina de Hollerith
era acumular y clasificar la información. Con ésta máquina se realizo el primer
censo guardando la información en una máquina ya que ante, se procesaban en
forma manual.
Hollerith fue el iniciador de la gran
compañía IBM.
En 1884, Dor Eugene Felt, construye la
primera máquina práctica que incluía teclas e impresora, llamado
"Comptómetro o calculadora con impresora"
Konrad Zuse, construye su calculadora
electromecánica Z1, que ya emplea un sistema binario y un programa indicado en
cinta perforadora, fue la primera máquina de tipo mecánico y es considerada
como la primera computadora construida, debido a que manejaba el concepto de
programa e incluía unidad aritmética y memoria.
Howard Aiken junto con la IBM,
construyó en 1937, la computadora MARK 1, en donde la información se procesaba
por medio de tarjetas perforadoras, con esta máquina se podían resolver
problemas de ingeniería y física, así como problemas aritméticos y lógicos.
Después aparecen la MARK II, MARK III Y MARK IV. Con esta calculadoras se
alcanza la automatización de los procesos.
Von Neumann, construye la EDVAC en
1952, la cual utilizaba el sistema binario e introducía el concepto de programa
almacenado. La primera aplicación que se le dio a la máquina fue para el diseño
y construcción de la bomba H.
la ABC, computadora construida por
John Vincent Atanastoff, la cual contenía bulbos, es considerada como la primer
computadora electrónica.
La
historia de las primeras maquina de calcular, desde las primeras maquina
mecánicas de calcular hasta la perforadora de tarjetas de hollerith.
2500 a.C.
a. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el
primer instrumento utilizado por el hombre para facilitar sus operaciones de
cálculo.
b. 2000 a.C.
- En el "I-Ching, o Libro de las mutaciones", también de origen
chino, se encuentra la primera formulación del sistema binario.
c. 600 a.C.
- El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos
aspectos de la electricidad estática. De sus escritos proviene la palabra
electrón, que se usa para designar a las partículas negativas del átomo.
d. 500 a.C.
- Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que
eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X,
L, C, D, M).
e. 1633
- El inglés William Oughtred creó un instrumento que hoy se conoce como regla
de cálculo, utilizado hasta hace unos años por los ingenieros.
f.
1642
- El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora
mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de
ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era
recaudador de impuestos, así que fue el primero en usarla.
g. 1671
- El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina
multiplicadora.
h. 1833
- El profesor de matemáticas de la Universidad de Cambridge Charles Babbage
(1792-1871) ideó la primera máquina procesadora de información. Algo así como
la primera computadora mecánica programable. Pese a que dedicó casi cuarenta
años a su construcción, murió sin terminar su proyecto.
i.
Babbage usaba cartones perforados para suministrarle datos a su máquina
(había copiado la idea del telar del francés Joseph Marie Jacquard, inventado
en 1801), que se convertirían en instrucciones memorizadas; algo así como los
primeros programas.
j.
Esperaba lograr imprimir la información registrada, obtener resultados y
volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía
hacer después.
k. La evaluación y la
retroalimentación se convertirían en la base de la cibernética, que nacería un
siglo más tarde.
l.
1847
- El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de
Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El
análisis matemático del pensamiento" y en 1854 "Las leyes del
pensamiento".
m. Su álgebra era un
método para resolver problemas de lógica por medio de los valores binarios (1 y
0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra
binaria, posteriormente se desarrolló lo que hoy se conoce como código binario,
que es el lenguaje utilizado por todos los computadores.
n.
1890
- Los cartones perforados y un primitivo aparato eléctrico se usaron para
clasificar por sexo, edad y origen a la población de Estados Unidos. Esta
máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya
compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva
York, creando la International Business Machines (IBM), empresa que un siglo.
Más tarde revolucionó el mercado con los
computadores personales o PC.
a. La historia de la computación hasta
la primera mitad del siglo xx.
Edad Media
Siglo XVII
1919: los inventores estadounidenses W. H. Eccles y F. W.
Jordan desarrollan el primer circuito multivibrador o biestable (en léxico
electrónico
flip-flop). Xx.
·
1936:
Konrad Zuse completa la primera computadora electro-mecánica, aunque
no 100% opera
1941: La computadora
Z3 fue
creada por
Konrad Zuse. Fue la
primera máquina programable y completamente automática.
·
1945: El primer caso de malfuncionamiento en la computadora
causado por la intrusión de una polilla al sistema fue documentado por los
diseñadores del Mark II.
·
·
1950:
Alan Turing expone un artículo que describe lo que ahora conocemos
como la
prueba de Turing. Su
publicación explora el desarrollo natural y potencial de la inteligencia y
comunicación humana y de computadoras.
b. La historia de la computación de la
segunda mitad del siglo xx.
1951: comienza a operar la
EDVAC, a diferencia de la ENIAC, no era
decimal, sino
binaria y tuvo el primer programa diseñado para ser almacenado
·
1952:
Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de salir de
un laberinto, considerada la primera red neural.
·
1956:
Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas
más cortas en
grafos como una demostración de las habilidades de la
computadora ARMAC.
·
1957: la
organización
ARPA es creada como consecuencia tecnológica de la llamada
Guerra Fría.
·
1960: se desarrolla
COBOL, el primer lenguaje de programación de alto nivel
transportable entre modelos diferentes de computadoras.
·
1960: aparece
ALGOL, el primer lenguaje de programación estructurado y
orientado a los procedimientos.
·
1962: en el
MIT,
Ivan Sutherland desarrolla los primeros programas gráficos que dejan que
el usuario dibuje interactivamente en una pantalla.
·
1962: en el
MIT, Hart y Levin inventan para
Lisp el primer compilador autocontenido, es decir, capaz de
compilar su propio
código fuente.
·
1962: un
equipo de la Universidad de Mánchester completa la
computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como
interrupciones,
pipes (tuberías), memoria entrelazada,
memoria virtual y memoria paginada. Fue la máquina más poderosa del
mundo en ese año.
Caracteres
ASCII imprimibles, del 32 al 126.
·
1962: un comité
industrial-gubernamental define el código estándar de caracteres
ASCII.
·
1966: la mayoría de ideas y conceptos que existían sobre
redes se
aplican a la red militar
ARPANET.
·
1969: el protocolo de comunicaciones
NCP se
crea para controlar la red militar
ARPANET.
·
1969: Data
General Corporation distribuye la primera minicomputadora de 16-bit.
·
1970: la
empresa Corning Glass Works vende comercialmente el primer cable de
fibra óptica.
·
1970: E. F.
Codd se publica el primer modelo de
base de datos relacional.
·
1970:
Brinch Hansen utiliza por primera vez la comunicación interprocesos en
el sistema
RC 400.
·
1970: Intel
crea la primera memoria dinámica
RAM. Se le llamó
1103 y tenía una capacidad de 1024 bits (1 kbits).
·
1970: Se
funda La división de investigación
Xerox PARC.
·
1971: en el
MIT, un
grupo de investigadores presentan la propuesta del primer "Protocolo para
la transmisión de archivos en Internet" (
FTP).
·
1971:
John Blankenbaker presenta el
Kenbak-1, considerado como el primer ordenador personal de la
historia, sin un procesador, solo con puertas lógicas. Solo vende 40 unidades
en centros de enseñanza.
·
1972: Robert
Thomas Morris crea el primer
virus informático, llamado
Creeper. Atacó a una máquina IBM Serie 360. Con el fin de
exterminarlo se crea el virus
Reaper, que
es considerado por muchos como el primer antivirus.
·
1972: Intel
desarrolla y pone a la venta el procesador
Intel 8008.
·
1974: Se crea
el sistema
Ethernet para enlazar a través de un
cable único a las computadoras de una
LAN (red de área local).
·
1980: en IBM, un grupo de investigación desarrolla el primer
prototipo de
RISC (Computadora de Instrucción Reducida).
·
1980: la
empresa
Mycron lanza
la primera microcomputadora de 16 bits, llamada
Mycron 2000.
·
1981: se lanza al mercado el
IBM PC, que se convertiría en un éxito comercial, marcaría una
revolución en
el campo de la computación personal y definiría nuevos estándares.
·
1981: se
termina de definir el protocolo
TCP/IP.
·
1981 (3 de
abril):
Adam Osborne lanza el
Osborne-1,
primer ordenador portable (no portátil ya que no usaba baterías).
·
1981:
Sony crea los disquetes de 3 1/2 pulgadas.
·
1982: la Asociación Internacional MIDI publica el
MIDI (protocolo para comunicar computadoras con instrumentos
musicales).
·
1983: Microsoft ofrece la versión 1.0 del procesador de
textos
Word para DOS.
·
1983: Compaq
fabrica el primer clon PC IBM compatible, el
Compaq portable.
·
1983:
ARPANET se separa de la red militar que la originó, de modo que,
ya sin fines militares, se puede considerar esta fecha como el nacimiento de
Internet.
·
1983: el
sistema
DNS (de Internet) ya posee 1000 hosts.
·
1984: las
compañías
Philips y Sony crean los
CD-Roms para computadores.
·
1984: se
desarrolla el
sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica
a los sistemas Unix.
·
1984: aparece
el lenguaje
LaTeX para procesamiento de documentos.
·
1984: Leonard
Bosack y Sandra Lerner fundan
Cisco Systems que es líder mundial en soluciones de red e
infraestructuras para Internet.
·
1985: Compaq
saca a la venta la
Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador
Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más
rápida que una PC IBM. Fue la primera de la línea de computadoras
Compaq Deskpro.
·
1986:
ISO estandariza
SGML, lenguaje en que posteriormente se basaría
XML.
·
1986: Compaq
lanza el primer computador basado en el procesador de 32 bits
Intel 80386, adelantándose a IBM.
·
1986: el
lenguaje
SQL es estandarizado por
ANSI.
·
1986: aparece
el programa de cálculo algebraico de computadora
MathCad.
·
1986: se
registra la primera patente base de codificación de lo que hoy conocemos como
MP3 (un
método de compresión de audio).
·
1986: Compaq
pone en venta la PC compatible
Compaq Portable II, mucho más ligera y pequeña que su predecesora, que
utilizaba microprocesador de 8 MHz y 10 MB de disco duro, y fue 30%
más barata que la IBM PC/AT con
disco rígido.
·
1987: se desarrolla la primera versión del actual protocolo
X11.
·
1987: Compaq
introduce la primera PC basada en el nuevo microprocesador de Intel; el 80386
de 32 bits, con la Compaq Portable 386 y la
Compaq Portable III. Aún
IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como
la era de los clones de PC.
·
1988: aparece
el primer documento que describe lo que hoy se conoce como
firewalls
(cortafuegos).
·
1988: aparece
el estándar
XMS.
·
1989:
T. E. Anderson estudia las cuestiones sobre el rendimiento de las
hebras o hilos en sistemas operativos (
threads).
·
1990: en
AT&T (Laboratorios de Bell) se construye el primer prototipo de
procesador óptico.
·
1991: surge
la primera versión del estándar
Unicode.
·
1991: Compaq
pone a la venta al por menor con la
Compaq Presario, y fue uno de los primeros fabricantes en los mediados
de los años noventa en vender una PC de menos de 1000 dólares
estadounidenses. Compaq se convirtió en una de los primeros fabricantes en usar
micros de
AMD y
Cyrix.
·
1992: Es introducida la arquitectura de procesadores
Alpha diseñada por
DEC bajo el
nombre
AXP, como reemplazo para la serie de microcomputadores
VAX que
comúnmente utilizaban el sistema operativo
VMS y
que luego originaría el
openVMS. El procesador Alpha 21064
de 64 bits y 200MHz es declarado como el más rápido del mundo.
·
1992:
GNU
comienza a utilizar el núcleo Linux.
·
1993:
Microsoft lanza al mercado la primera versión del sistema operativo
multiusuario de 32 bits (cliente-servidor)
Windows NT.
·
1993: se crea
la lista
TOP500 que recopila los 500 ordenadores más potentes de la
tierra.
·
1994: es
diseñado el
PHP, originalmente en lenguaje
Perl, seguidos por la escritura de un grupo de
CGI binarios
escritos en el lenguaje C por el programador danés-canadiense
Rasmus Lerdorf.
·
1995: aparece
la primera versión de
MySQL.
·
1995: se
especifica la versión 1.5 del
DVD, base actual del DVD.
·
1996: se
publica la primera versión del navegador web
Opera.
·
1996: se
inicia el proyecto
KDE.
·
1996: la
tecnología de
DjVu fue originalmente desarrollada en los laboratorios de
AT&T.
·
1997: aparece
la primera versión pública de
FlightGear.
·
1998:
Compaq adquiere
Digital Equipment Corporation, la compañía líder en la anterior
generación de las computadoras durante los años setenta y principios de los
ochenta. Esta adquisición convertiría a Compaq en el segundo más grande
fabricante de computadoras, en términos de ingresos.
·
1999: aparece el entorno de escritorio
GNOME.
c. La historia de las microcomputadoras
desde 1980 hasta la fecha actual.
d.
1980
En todo el mundo había un millón de ordenadores en uso.
Conferon desarrolló un sistema de auriculares y buscapersonas inalámbricos para
reuniones que estaba diseñado para mejorar la comunicación in situ. Esto
ocurrió antes del uso muy extendido de radios portátiles.
Varias empresas especializadas en sistemas de inscripción (Galaxy Information
Services, CompuSystems y Registration Control Systems) ofrecieron al segmento
de ferias de muestras y exposiciones un sistema informatizado básico para la
generación de credenciales y el intercambio de datos de contacto (por medio de
tarjetas de "crédito" plásticas en relieve). Antes de la aparición de
dichas tarjetas, los expositores apuntaban a mano los números de las
credenciales de los asistentes, que la empresa encargada del proceso de
inscripción cotejaba luego con los datos de contacto.
Galaxy lanzó el primer sistema informatizado de inscripciones in situ.
Utilizando 12 puestos de inscripción que transmitían datos vía un módem de
1.200 baudios, esta innovación eliminaba la necesidad de instalar una
computadora central en el lugar de celebración.
En Brisbane (Australia), Ray Shaw de Intermedia importó componentes
estadounidenses para construir un ordenador CP/M. Escribió el programa
"Camputer" que condujo a la versión 1 de EVENTS, que con el tiempo se
convirtió en Amlink. En el mismo se utilizó Events VI para gestionar una
conferencia con 400 delegados. El programa original era una base de datos plana
que generaba credenciales, listas de alojamiento, informes y cartas de
confirmación. Hacía falta alrededor de una semana para preparar el software
para cada conferencia nueva.
1981
El Commodore VIC-20 irrumpió en el mercado —el primer ordenador en color por
menos de 300$— del que se vendió más de un millón de unidades. El monitor era
un televisor, se almacenaban los datos en una cinta de casete y las
aplicaciones rompedoras eran videojuegos.
IBM lanzó el primer ordenador personal.
Se lanzó MeetingPro, el primer software de base de datos para el sector de
congresos y reuniones para la formación médica permanente, con cartas de
confirmación personalizadas, credenciales impresas con letra grande, listas de
participantes precisas y seguimiento básico del mercado.
1982
Compression Labs empezó a comercializar sistemas de videoconferencia por 250.000$,
con un coste de conexión de 1.000$ por hora.
1983
Eric Orkin presentó Delphi Management Systems, el primer software completo para
el sector de la hostelería, diseñado para reuniones y grupos, incluyendo
funciones para marketing y catering. En 1985 se convirtió en Newmarket
Software.
Events V2 (que iba camino de convertirse en Amlink) se reescribió en PL/1, con
lo que se podía personalizar para cada evento en menos de un día. El software
se ejecutaba en un ordenador MP/M de 24 usuarios, que a su vez estaba conectado
a una fotocomponedora de Compugraphic para imprimir catálogos de abstractos,
información sobre conferencias, etc.
1984
Apple volvió a lanzar el Macintosh, el primer ordenador fabricado en masa, con
un ratón y una interfaz gráfica.
Galaxy utilizó un solo microordenador, fabricado por Digital Systems
Corporation, para controlar 120 puestos de inscripción en ferias de muestras y
exposiciones.
Events V3 (que iba camino de convertirse en Amlink) se probó en un congreso
tecnológico celebrado en París. Fue la primera vez que se utilizó un paquete de
software de gestión de reuniones en Europa.
1985
Microsoft lanzó Windows 1.0 que se empezó a comercializar por 100$.
Se comercializaron los CD-ROM, con capacidad para almacenar el texto de 270.000
folios en un solo disco.
El 15 de marzo de 1985, Symbolics, una empresa informática de Massachusetts,
registró el primer dominio de Internet, symbolics.com.
Phoenix Solutions presentó MeetingTrak 1.0, otro de los productos pioneros de
base de datos para la gestión de reuniones.
PCNametag, el primer software para generar credenciales, se estrenó en
MeetingWorld de Nueva York. Con una impresora de matriz de puntos era capaz de
generar 120 credenciales por hora. Los asistentes se agolparon para ver el producto.
1986
El primer virus que afectaba a los PCs de IBM fue uno del sector de arranque
que se llamaba "Brain".
Eric Thomas desarrolló el primer programa de listas de mailing, denominado
"LISTSERV".
Compaq comercializó el primer ordenador compatible con procesador i386.
E.J. Siwek creó y comercializó el primer software para generar planos de salas.
Judith Mathews fundó el Meeting Industry Microcomputer Users Group [grupo de
usuarios de microcomputadoras perteneciente al sector de congresos y reuniones].
Durante varios años, MIMUG se reunía antes de la reunión anual de Meeting
Professionals International (MPI). Las demostraciones de software marcaron el
principio de la formación tecnológica en la industria de los eventos.
1987
Se creó la primera asociación enfocada en la tecnología para la industria de
los eventos. La asociación, cuyo nombre del que nadie se acuerda ahora, duró
alrededor de dos semanas antes de ser absorbida por MPI como el Computer
Special Interest Group.
Se lanzó PowerPoint 1 (denominado originalmente "Presenter"). Sólo
mostraba imágenes en blanco y negro, tenía una sola transición y solo
funcionada en ordenadores Macintosh.
1988
Empezó a operar la empresa conjunta "videotexto" de IBM y Sears bajo
el nombre "PRODIGY".
Los códigos de barras de identidad aparecieron como la primera generación de
sistemas impresos de captación de datos de contacto para ferias de muestras y
exposiciones.
Dieciséis cadenas hoteleras contribuyeron con 100.000$ para financiar una nueva
empresa, The Hotel Industry Switch Co., para conectar electrónicamente las
empresas de sistemas de distribución global, como Sabre, con los sistemas
informatizados de reservas de los hoteles. THISCO se convirtió en Pegasus, que
actualmente procesa más de 300 millones de transacciones al mes.
1989
Desde 1987 hasta 1989, el número de máquinas de fax en el mundo aumentó en más
de dos veces para llegar a las 2,5 millones de unidades.
El número de ordenadores en uso en el mundo sumaba las 100 millones de
unidades.
Quantum Computer Services, el sistema de tablón de noticias en Internet, se
cambió de nombre para pasar a llamarse America Online (AOL). Desde 1989 hasta
1998, el número de miembros de AOL pasó de los 100.000 a los 14 millones.
PCNametag y LasersEdge desarrollaron un software para la generación de
credenciales con una impresora láser.
Se lanzó McNametag, uno de los pocos programas de software diseñados
específicamente para el sector de congresos y reuniones escrito para
ordenadores Macintosh.
1990
Tim Berners-Lee inventó laWorld Wide Web.
1991
Las empresas informáticas comercializaban los ordenadores portátiles con
anuncios en los que se veían a los usuarios con sus "máquinas de
libertad" al lado de una piscina.
PlanSoft comenzó a desarrollar Ajenis, el primer intento de homogeneizar las
comunicaciones relacionadas con las especificaciones de reuniones entre
organizadores y hoteleros. Finalmente se lanzó el software en 1995, pero no se
adoptó de forma generalizada, en parte debido a la creciente competencia de las
primeras herramientas alojadas en la Web.
La School Home Office Products Association fue la primera asociación en usar
tarjetas inteligentes (tarjetas de plástico con chips integrados) para la
captación de datos de contacto en su ferias de muestras.
1993
A comienzos de 1993, la Web contenía 130 sitios web.
America Online y Delphi empezaron a conectar sus propios sistemas de correo
electrónico a Internet, lo que marcó el comienzo de la adopción a gran escala
del correo electrónico de Internet como norma mundial.
La división de ordenadores de Apple lanzó el primer PDA (asistente digital
personal) que se llamaba "Newton".
Se creó MPINet, el primer grupo de discusión online para profesionales del
sector de congresos y reuniones, como foro en CompuServe. El comité encargado
de su puesta en marcha, integrado por 16 personas, se reunió en diciembre de
1993, y el servicio se lanzó en la Web un mes después. Antes de cerrarse en
1997, debido al auge de los foros alojados en la Web, tenía 2.600 miembros.
1994
Laurence Canter envió el primer correo electrónico que podía considerarse como
spam –"Green Card Lottery 1994 May be the Last One!! Sign up now!! – lo
que levantó un gran revuelo en la comunidad de Internet. Como resultado, Carter
perdió su empleo y su proveedor de servicio de Internet canceló su cuenta.
Con el objetivo de hacer un seguimiento de los sitios web que les interesaban,
dos estudiantes de Stanford crearon "Jerry’s Guide to the World Wide
Web" [La guía de Jerry para la World Wide Web], que pronto pasó a llamarse
Yahoo!
McGettigan Partners (ahora Maritz) introdujo el primer producto de software que
hacía un seguimiento de los gastos y el suministro de servicios de las
reuniones. Luego se convirtió en Core Discovery, que al principio sólo estaba
disponible para los clientes de McGettigan. En 1998, la empresa lanzó una
versión actualizada con una interfaz web para el público en general, bajo el
nombre Real-Planner. En 1999, pasó a ser una empresa separada, StarCite, que
comercializaba soluciones alojadas en la Web para el suministro de servicios,
la gestión de delegados y el seguimiento de gastos.
Registration Control Systems y Galaxy introdujeron unas tarjetas de banda
magnética para la captación de datos de contacto en ferias de muestras y
exposiciones.
1995
El número de hogares estadounidenses con uno o más PCs aumentó en un 16% en
1995, para llegar a cerca de los 38 millones; 33 millones más que en 1994 y 25
millones más que en 1993.
Conferon creó una entidad separada, PlanSoft (que se conocería luego como
Mpoint), el primer motor de base de datos de espacios y peticiones de
propuestas para reuniones, con buscador incorporado. Se trataba de un consorcio
singular compuesto por una empresa privada (PlanSoft), dos asociaciones (MPI y
la Asociación Norteamericana de Ejecutivos de Asociaciones), y tres empresas
hoteleras (Marriott, Sheraton y Hyatt). Plansoft.com se lanzó en Internet en
1997.
InterMedia, la feria de muestras de Reed, fue la primera en usar credenciales
impresas con barras de códigos bidimensionales, lo que permitió a los
expositores captar de una credencial todos los datos de contactos de clientes
potenciales.
Holiday Inn lanzó el primer sitio web hotelero con un sistema de reserva y pago
de habitaciones.
Aparecieron las primeras herramientas de inscripción online para reuniones;
todas con código escrito a mano por programadores.
Lee Travel asumió el control de Internet World Tradeshows para gestionar
alojamiento. La empresa lanzó el primer sitio web de alojamiento en 1996, que
hacía un seguimiento en tiempo real de bloques de habitaciones e inventarios.
De Lee Travel surgió en 1998 b-there.com, uno de los pioneros en productos de
gestión de delegados, alojamiento y consolidación. Su producto empezó
llamándose ERS (Event Reservation System) y fue unos de los primeros productos
de alojamiento e inscripción basados en plantillas. Más tarde, StarCite
compraría b-there.com.
Microsoft NetMeeting, una herramienta de colaboración alojada en la Web, se
lanzó con Windows95. Esta herramienta permitía a la gente utilizar sus
ordenadores para "reunirse" y trabajar juntos desde lugares remotos.
Pronto le siguieron WebEx (1996), PlaceWare (1996) y otros, que también
proporcionaban funciones de audio y diapositivas y permitían compartir pantallas
y archivos.
1996
El Hotel Miyako de San Francisco (ahora el San Francisco Radisson) incorporó el
primer sistema de petición de propuestas, desarrollado por Cardinal
Communications.
El hotelero Bob Motley, junto con Brian Layton, fundaron Passkey, una de las empresas
pioneras en reservas online de habitaciones de hotel. La primera reunión, con
una sola sede, que se organizó con Passkey fue para 900 personas en el Hotel
Sheraton de Nueva Orleans en 1998.
Cardinal Communications creó el Meeting Industry Mall, el primer portal
interactivo alojado en la Web para la industria de los eventos. De ello surgió
MIMlist, el primer servidor de listas para profesionales del sector de
congresos y reuniones.
1997
La mayoría de las principales empresas hoteleras y asociaciones del sector de
congresos y reuniones desarrolló un sitio web.
RegWeb lanzó la primera herramienta de inscripción basada en plantillas,
desarrollada por Cardinal Communications. Dicha herramienta permitía a los
organizadores crear, y personalizar hasta cierto punto, páginas de inscripción,
sin el concurso de un diseñador web. Fue el precursor de los miles de
proveedores de servicios de aplicación para la industria de los eventos que
aparecerían después.
1998
Las oficinas de Google se montaron en septiembre en un garaje de Menlo Park
(California) y, en diciembre del mismo año, fue reconocido como uno de los
"100 principales sitios web" por PC Magazine.
ExpoCardWeb presentó una herramienta alojada en la Web que permitía a los
expositores acceder a los datos de contacto de clientes potenciales.
AllMeetings.com introdujo una herramienta online gratuita para el análisis de
costos generados por las reuniones.
Lee Travel lanzó la primera generación de un producto online para la gestión
integral de alojamiento, inscripciones y reserva de pasajes de avión que
incorporaba tarifas por zonas.
En abril de 1998 se celebró el evento Open Source Summit. Fue un evento clave
que fomentó notablemente la idea del software gratuito y desarrollado
públicamente (de fuente abierta). Esto ha llegado a convertirse en un modelo de
desarrollo de software más rápido y barato, incluyendo los sistemas operativos
Linux y Android y cientos de miles de aplicaciones móviles.
1999
Varios expertos predijeron el colapso total de los sistemas informáticos debido
al efecto 2000 (la incapacidad de los ordenadores más antiguos para distinguir
entre el año 1900 y el año 2000). Llegado el Año Nuevo apenas se detectaron
problemas, pero por el temor generalizado se llevaron a cabo a escala global importantes
actualizaciones de los sistemas informáticos del mundo empresarial.
HotDatesHotRates.com se convirtió en uno de los primeros sitios web en ofrecer
"existencias sobrantes" –espacios para reuniones y habitaciones de
hotel– normalmente con poca antelación y con descuento.
En septiembre de 1999 seeUthere.com lanzó uno de los primeros productos de
proveedor de servicios de aplicación para la planificación de eventos
(alquilando aplicaciones alojadas en la Web, frente al software instalado
directamente en un ordenador), con un sistema de pago de cuotas de inscripción
que funcionaba con tarjeta de crédito. Casi al mismo tiempo, Evite.com presentó
un sitio web centrado en el consumidor, que luego fue comprado por
Ticketmaster.
2000
En el 60% de los hogares estadounidenses había al menos un ordenador.
El gusano/virus Love Bug infectó a 2,5 millones de PCs, causando daños y
perjuicios económicos en torno a los 8,7$ mil millones.
Los proveedores de servicios de aplicación, alimentados por los fondos de capital
de riesgo, irrumpieron en el campo de la organización de eventos y reuniones.
Algunas de estas empresas no sobrevivirían el estallido de la burbuja de los
punto com en 2001.
Se celebró ExpoExchange, la primera feria de muestras virtual.
SpotMe presentó su dispositivo móvil de networking en Londres, que permitía a
los asistentes visualizar las imágenes y los datos de contacto de la gente que
se encontraba dentro de un radio de 10 metros. Luego se agregaron otras
funciones que permitían a los usuarios obtener información sobre sesiones y
listas de asistentes, así como para realizar votaciones y encuestas, entre
otras. Fue el precursor de muchas de las aplicaciones móviles para eventos
disponibles actualmente.
GetThere Direct Meetings introdujo la primera herramienta online de reservas
para grupos. Le siguieron en 2003 otras herramientas de reserva de bloques de
habitaciones, como Groople y Hotel Planner, sobre todo para reuniones pequeñas.
El Consejo para la Industria de las Convenciones implementó la iniciativa de
APEX (intercambio de prácticas aceptadas), que estableció las primeras
recomendaciones para el sector de congresos y reuniones.
2001
Apple presentó el iPod, que luego se convertiría en el reproductor MP3 más
popular de la historia, lo que instigó a su vez cambios radicales y disruptivos
en la industria de la música.
Se lanzó Wikipedia, el sitio web de referencia más grande y popular del mundo.
Actualmente contiene más de 17 millones de artículos redactados de forma
colaborativa por voluntarios de todo el mundo.
El uso de herramientas online colaborativas y para reuniones, tales como WebEx
y PlaceWare (ahora Windows LiveMeeting) experimentó un fuerte repunte después
de los ataques terroristas del 11 de septiembre en Nueva York.
El 12 de noviembre, Uthere.com y TRX ResAssist presentaron los primeros
productos online para la reserva en tiempo real de pasajes de avión para
grupos.
StarCite lanzó la primera herramienta bidireccional alojada en la Web para
peticiones de propuestas en tiempo real para salas de reuniones y habitaciones
de hotel.
Un creciente número de turistas de negocios utilizaba sitios web de viajes,
como Expedia (lanzado en 1996), Travelocity (1996) y Orbitz (2001), entre
otros, para buscar alojamiento hotelero barato. Las reservas "fuera del
bloque" crearon problemas para los organizadores en forma de
cancelaciones. Para combatir el problema, Hilton lanzó en 2004 su Programa de
Identificación de Reservas para Grupos, lo que permitía a los organizadores a
comparar listas de inscripciones con las reservas de hotel y, de este modo,
saber a ciencia cierta quiénes de los asistentes iban a alojarse en qué hotel.
2002
Hyatt presentó E-mmediate Meetings, una herramienta online para reservas,
diseñada para reuniones pequeñas. De ésta surgió E-mmediate Response, que
ofrecía por primera vez una conexión bidireccional en tiempo real entre un
sitio web de peticiones de propuestas (en este caso StarCite) y el sistema de
reservas de un hotel.
Se desarrollaron herramientas de networking alojadas en la Web para los
asistentes a las reuniones y los eventos. La primera fue Rio, desarrollada por
Columbia Resource Group. Fue seguida por IntroNetworks y Smart Event de
ExpoExchange. Similares a las redes sociales, estas herramientas ayudaban a los
asistentes a encontrar a gente con intereses afines en las reuniones y los
eventos. Fueron los precursores del sector de congresos y reuniones de Facebook
y otros sitios web sociales.
Las empresas tecnológicas son las primeras en utilizar web logs móviles
(MoBlogs) en el sector de congresos y reuniones.
2003
Intel incorporó el Wi-Fi (wireless internet receiving capability) en su
procesador Centrino, lo que abrió la puerta a la rápida adopción de Internet
inalámbrico en los años venideros.
Se desarrollaron unas normas para servicios Web, lo que hizo que fuera mucho
más fácil para distintos programas online compartir datos vía APIs (interfaces
de programación de aplicaciones). Esto permitía desarrollar más fácil y
rápidamente bases de datos y software online.
En mayo, el volumen de SPAM de correo electrónico excedió por primera vez el de
correos legítimos.
Se desarrollaron y se afinaron varios programas de gestión estratégica de
reuniones (conocidos en aquel entonces como "productos de
consolidación").
Intellibadge fue la primera empresa en utilizar la RFID (identificación por
radiofrecuencia) para hacer un seguimiento del público en la zona de exposición
o las salas de reuniones de los eventos de la IEEE.
Más de 6.000 hoteles instalaron el Wi-Fi (fidelidad inalámbrica), o acceso de
alta velocidad a Internet.
APEX presentó su primer producto (el glosario online:
http://glossary.conventionindustry.org/). Luego llegarían más productos (normas voluntarias)
abarcando antecedentes de reuniones, perfiles web, peticiones de propuestas,
alojamiento/inscripción y reuniones sostenibles.
2004
Google indexó más de ocho mil millones de páginas en la Web.
Nació Facebook (solo para estudiantes de Harvard).
El volumen de reservas online de Hilton Hotels excedió por primera vez el de
sus centros de llamadas.
PlanSoft y SeeUThere, dos de los proveedores más punteros de tecnología para
eventos, se fusionaron para crear OnVantage.
2005
Se estrenó YouTube, el primer sitio web para compartir videos, que desde
entonces se ha convertido en uno de los sitios más populares de la Web. En
2010, YouTube utilizó más ancho de banda que toda la Web en 2000.
Las dos empresas más veteranas en el sector del desarrollo de software para
reuniones (Peopleware y Amlink) se fusionaron bajo la marca Amlink.
2006
Se lanzó Twitter, el sitio de microblogs con un máximo de 140 caracteres por
mensaje.
En mayo, iTunes celebró la descarga del milmillonésimo archivo.
La industria de los eventos empezó a utilizar la tecnología Web 2.0 (que luego
se llamaría "medios sociales"), incluyendo blogs, blogs de vídeos y
wikis (sitios web interactivos).
Se fusionaron los dos principales proveedores de tecnología para reuniones,
OnVantage (el resultado de la fusión entre PlanSoft y SeeUThere) y StarCite (el
resultado de la fusión entre este último, b-There y RegWeb).
Los proveedores de tecnología de telefonía móvil, como LogOn, desarrollaron
productos para reuniones, incluyendo una variedad de herramientas como
directorios de productos, funciones de networking, agendas y sistemas
interactivos de votación que funcionaban vía teléfonos móviles normales.
2007
Con el lanzamiento del iPhone en junio, Apple revolucionó el sector de la
telefonía móvil. En los próximos cuatro años y medio se vendieron más de 74
millones de unidades.
Google lanzó GoogleDocs, con hojas de cálculo y procesadores de textos
gratuitos alojados en la Web.
La Conferencia South by Southwest (SXSW), celebrada en Austin, Texas, fue la
punta de inflexión de la popularidad de Twitter, cuyo volumen de
"tuits" aumentó de 20.000 a 60.000 al día (en 2011, se alcanzaron los
200 millones de "tuits" al día).
2008
Amlink se fusionó con Certain Software el 1 de abril.
Active Networks adquirió dos de las principales empresas de inscripción online,
RegOnline y WindgateWeb.
2009
La televisión digital se convirtió en el estándar de emisión en los EE.UU. y en
otras partes del mundo, abriendo así la puerta a servicios de televisión
alojados en la Web.
Seasite.com lanzó la primera herramienta alojada en la Web de peticiones de
propuestas, diseñada para ayudar a los profesionales del sector a encontrar a
proveedores de cruceros para el sector de congresos y reuniones.
2010
Apple presentó el iPad, otra revolución del ordenador portátil tipo
"tableta".
Había 4,7 mil millones de abonados a un servicio de telefonía móvil (dos de
cada tres personas en el planeta). Había más gente con un teléfono móvil que
personas con acceso a agua corriente o a un cepillo de dientes.
Skype desarrolló las videoconferencias de alta definición. Esto permitía a los
organizadores acceso a una señal de vídeo de calidad y gratuita para el vídeo
streaming de sus eventos.
Hubo un gran auge de aplicaciones móviles diseñadas específicamente para
eventos y ferias, que coincidió con la aparición de cientos de empresas nuevas
que proporcionaban este tipo de servicios.
2011
En octubre, Amazon lanzó la tablet Kindle Fire/eReader de la que logró vender
más de 25 millones de unidades antes de finales de año.
Había más de 600.000 de aplicaciones para el iPhone/iPad y más de 400.000 para
Android.
Se descargaban diariamente más de 5,6 millones de aplicaciones para el iPhone.
Había más de 800 millones de usuarios de Facebook (más de una de cada 10
personas en el planeta).
Se desataron grandes revoluciones en Oriente Medio gracias a los teléfonos
móviles y los medios sociales.
Durante las vacaciones de Navidad se descargaron 1,2 mil millones de
aplicaciones.
La encuesta FutureWatch 2011, entre otras, indicó que más del 80% de los
profesionales del sector de congresos y reuniones utilizaba un teléfono
inteligente u otro dispositivo móvil en su trabajo. Sin embrago, un porcentaje
de organizadores relativamente bajo (el 9%) había utilizado aplicaciones
móviles para sus propias reuniones.
Se celebró la primera "cata de vinos virtual" en Camp Europe,
utilizando Google Hangouts (un producto gratuito para realizar
videoconferencias desde múltiples lugares). A los asistentes en el lugar principal
en Londres, y a los que se encontraban en Polonia y Suecia, se les proporcionó
el vino a catar. Por medio de esta herramienta gratuita para video
conferencias, los asistentes en todos los lugares escuchaban/veían al anfitrión
describir el vino, mientras inspeccionaban, olían y cataban cada vino. Los
asistentes utilizaron los cinco sentidos.
2012
Active Networks compró StarCite. Las fusiones anteriores en las que estuvieron
implicadas estas dos empresas incluyeron algunos de los principales pioneros de
la tecnología para el sector de congresos y reuniones –RegWeb, b-there,
seeUthere, PlanSoft, OnVantage, RegOnline y WingateWeb–, lo que constituyó otro
paso en la consolidación de los líderes en el sector.
e. Tendencias actuales y futuras de la
computación.
A continuación se enlistan
las principales areas que se desarrollan actualmente dentro del campo de la computación.
Los nombres de las categorías corresponden a los más usados en el medio sin con I. Computación aplicada:
Son actividades en las que
se aprovechan de manera práctica los elementos teóricos de la computación y
otras disciplinas.
a)
Procesamiento de señales
o Procesamiento de imágenes: son técnicas para la manipulación
numérica de imágenes (fotografías, imágenes de satélite, radiografías, tomografías,
etc.). Entra las principales aplicaciones destacan restauración, "ecualización"
de colores, efectos especiales, "doping", filtrado, suavizado y
reconocimiento de patrones.
o Procesamiento de señales: son
técnicas para la manipulación numérica de señales (sonido, señales sísmicas, de
radar, de sonar, etc.). Entre las principales aplicaciones destacan análisis
del espectro de frecuencias, filtrado, compresión de datos, efectos especiales
y síntesis de señales.
b)
Bases de Datos: son
técnicas para el manejo eficiente de datos (actualización, búsquedas, emisión
de reportes, etc.). Se aplican en nominas, inventarios, control escolar, en el
proyecto Genoma, en archivos policiacos y en la Supe carretera de la Información.
c)
Redes de Computadoras: es la aplicación de la tecnología
(hardware y software) para la interconexión de computadoras y compartir datos y
recursos.
d)
Inteligencia artificial: son programas para resolver
problemas que usualmente requieren de inteligencia.
o Sistemas expertos: es
software que obtiene conclusiones al aplicar reglas de inferencia lógica a información
concentrada en una base de datos (conocimientos recabados de un experto
humano). Se aplican en sistemas financieros, de crédito, de análisis de datos científicos,
etc.
o Lógica difusa: son
algoritmos que aplican los principios de la lógica difusa (lógica de estados
intermedios entre cierto y falso) para resolver problemas. Se usa
principalmente en aplicaciones de control.
o Planeación: son
técnicas para la elaboración de planes de acción y su ajuste automático durante
la ejecución.
o Representación y "comprensión" del
conocimiento: es
el desarrollo de esquemas apropiados para trasladar conocimientos en objetos manipulables
y comprensibles por la computadora.
o Heurística: es
la resolución de problemas mediante la exploración de todos los posibles
caminos hasta encontrar aquellos que conduzcan a la solución.
o Aprendizaje automático: son métodos por los cuales
un sistema reajusta sus parámetros para mejorar sus actividades.
o Reconocimiento de patrones: es la identificación de
los elementos que aparecen en un marco de referencia (una fotógrafa, y una señal,
etc.).
o Procesamiento de lenguaje natural: es la adecuada interpretación
del lenguaje utilizado de manera corriente por las personas.
e)
Simulación: es
la solución numérica del modelo matemático de un fenómeno para observar su
comportamiento. La simulación puede ser didáctica o científica. Entre las
principales aéreas que recurren a la simulación estan la Física, la Astronomía,
la Biología o la industria.
f)
Biocomputacion: se han aprupado en esta categoría
todas aquellas técnicas que tienen un origen inspirado en la Biología.
o Redes neuronales: son
algoritmos numéricos que simulan el comportamiento de redes de nodos adaptables
que, mediante un entrenamiento adecuado, pueden resolver problemas sin requerir
de un procedimiento explicito para solucionarlos. Se ocupan en clasificación y compresión
de datos, reconocimiento de patrones, etc.
o Algoritmos genéticos: son algoritmos de que
aplican el concepto biológico de selección natural para elegir la mejor solución
de un conjunto de soluciones posibles. Se aplican en problemas de optimización.
o Autómatas celulares: es la simulación de un
mundo bidimensional que contiene una distribución de células cuya configuración
cambia en cada instante siguiendo reglas que se aplican al vecindario de cada célula.
Se utilizan en problemas de interacción celula-celula, modelos de color de piel
en animales, aspectos de la generacion de formas, etc.
o Vida artificial: son
tecnicas para simular "entes" que viven en la computadora y de los
que solamente se definen las reglas minimas de comportamiento (codigo genetico).
o Evolución artificial: son
técnicas que aplican los conceptos de evolución y selección natural para
definir un "ser" primitivo que a través de reproducción y mutación ,
se convierte en el más apto para resolver alguna tarea.
g)
Computación grafica (infografía o computación visual).
o Traficación: son
algoritmos para el despliegue grafico de datos.
o Visualización: son
técnicas para la representación visual de los resultados de simulaciones
(normalmente en tercera dimensión).
o Realidad virtual: es
la estimulación adecuada de los sentidos humanos para provocar la percepción de
un ambiente inexistente; implica interacción con el usuario y requiere
complejos elementos de simulación, visualización e incluso inteligencia
artificial. Se utiliza como diversión, en mandos de tele presencia, para el
entrenamiento de pilotos y en el estudio de objetos microscópicos.
o Diseño: son
técnicas para facilitar la elaboración de planos, prototipos o documentos. Por
ejemplo, hay diseño arquitectónico, industrial, editorial o artIsatico.
o Interfaces: es
la investigación y desarrollo de programas o dispositivos para mejorar la interacción
entre hombre y maquina.
h)
Applications interdisciplinary.
o Física computacional: es la aplicación o de la
computadora para el estudio, resolución de problemas, simulación y enseñanza de
los fenómenos físicos.
o Música computacional: es la aplicación de la
computadora para el análisis, procesamiento y síntesis de sonidos y estructuras
musicales.
o Matemáticas computacionales: es la aplicación de la
computadora para el estudio, resolución de problemas, simulación y enseñanza de
problemas matemáticos.
o Bioinformatica: es
la aplicacion de la computadora en la investigación y simulación en ciencias biológicas.
o Geometría computacional: son
algoritmos para la solución de problemas geométricos.
o Multimedia: es
el uso del equipo de cómputo para integrar audio, video, texto y fotografía
para una mejor comunicación de ideas.
o Tutoriales: es
el desarrollo de software para apoyar la enseñanza de ciertas disciplinas.
II:
Metodología de la computación:
Es el estudio y desarrollo
de técnicas y métodos que conviene seguir al desarrollar aplicaciones de computación.
a)
Estilos de programación
o Procederla: tipo
de programación que requiere la definición precisa de cada paso para la resolución
de un problema. Lenguajes de este tipo son Pascal, C, BASIC, ensamblador
Fortran y COBOL.
o Declarativa (y lógica): tipo de programación que
requiere la declaración de premisas para que el lenguaje aplique las leyes de
la lógica matemática y obtenga las conclusiones que resuelven un problema.
Lenguajes de este tipo son Prologa, Parlo, Escher y Gadel.
o Funcional: tipo
de programación que se basa en la composición de funciones y el uso de listas
como estructura de datos básica. Por ejemplo, el lenguaje Lisp.
o Orientada a objetos: es
un método de programación que se basa en determinar los objetos que intervienen
en un sistema y el comportamiento e interacción entre ellos. Lenguajes de este
tipo son Smalltalk, C++, Actor, Eifel, Simula.
b)
Ingeniero/a de software: es
la aplicación de técnicas de ingeniería en la sistematización y organización de
la producción de software a gran escala.
c)
Análisis y diseño de sistemas: son métodos para el estudio y planeación
de sistemas de información óptimos.
d)
Computación simbólica: es el desarrollo de tecinas y
algoritmos para el procesamiento de datos no numéricos. Por ejemplo, lógica de
predicados, procesamiento de listas, algebra, cálculo, etc.
e)
Redes de computadoras: es el estudio y desarrollo de los
algoritmos para la transmisión segura de datos a través de redes, por ejemplo,
diseño de protocolos, compresión de datos, recuperación de errores, etc.
f)
Inteligencia artificial: es el estudio y desarrollo de técnicas
para simular inteligencia en las computadoras.
g)
Biocomputacion: es el estudio y desarrollo de técnicas basadas en conceptos biológicos.
h)
Visualización: es el estudio y desarrollo de técnicas para la representación
visual de datos.
III.
Computaciónon teorica:
Son los fundamentos teóricos
de las actividades que se desarrollan en computación.
o a) Algoritmia Análisis de algoritmos y complejidad: es el estudio de la
eficiencia de los algoritmos y la complejidad involucrada en los cálculos.
o Compresión de datos: es el estudio y desarrollo
de algoritmos para reducir el número de bits necesarios en la representación de
información.
o Criptografía: es
el estudio y desarrollo de algoritmos para la codificación y decodificación de
datos.
o Algoritmos eficientes: es
el estudio de las modificaciones matemáticas que pueden hacerse a los
algoritmos para reducir el tiempo de cómputo, sin alterar su objetivo.
o Algoritmos paralelos: es
el estudio y desarrollo de algoritmos para la solución de problemas utilizando
varios procesadores que trabajen al mismo tiempo en un mismo objetivo.
o Algoritmos distribuidos: es el estudio y desarrollo
de algoritmos para la solución de problemas repartiendo los objetivos en
diferentes procesadores.
o Supercopita (computo intensivo): desarrollo de algoritmos
que aprovechen mejor la capacidad del supercopita (procesamiento vectorial,
paralelismo, "pipelining", etc.).
b)
Estructuras para el manejo de información.
o Estructuras de datos: análisis, desarrollo y optimización
de estructuras para el almacenamiento y manejo de datos en memoria primaria.
o Estructuras de archivos: análisis, desarrollo y optimización
de estructuras para el almacenamiento y manejo de datos en memoria secundaria.
o Bases de datos: análisis,
desarrollo y optimización de técnicas para el manejo de grandes cantidades de
datos interrelacionados, evitando redundancias y garantizando la seguridad e
integridad de los datos.
c)
Investigación de operaciones (optimización): estudio
de las técnicas para reducir al mínimo el costo de las operaciones que se
requieren para resolver un problema.
d)
Desarrollo de lenguajes de programación: definición de la sintaxis y semántica
de lenguajes que resulten útiles en la resolución de problemas específicos.
e)
Compatibilidad (teoría de la computación): es el estudio de las maquinas teóricas
que pueden calcular funciones computables (funciones que pueden calcularse por
medio de algoritmos sin importar como se exprese o se implemente).
f)
Autómatas
o Teoría de autómatas: estudio de redes de nodos
cuya trayectoria cambia en cada instante de acuerdo a ciertas reglas.
o Compiladores: desarrollo
de autómatas para la traducción de lenguajes teóricos de alto nivel a lenguajes
de bajo nivel.
g)
Sistemas operativos: desarrollo
de sistemas para el control a bajo nivel de los recursos de la computadora.
h)
Arquitectura de computadoras: diseño teórico de las estructuras
para almacenamiento de datos y las reglas para su manipulación.
IV.
Aplicaciones de control:
Es el uso de la
computadora en el gobierno de maquinas.
a)
Electrónica digital: tecnología basada en componentes electrónicos
que controlan y procesan pulsos binarios. Su funcionamiento se basa en la lógica
binaria.
b)
Microprocesadores: diseño y construcción de sistemas electrónicos
basados en microprocesadores y programados en ensamblador.
c)
Teoría del control: estudio teórico del comportamiento
de sistemas físicos y los elementos para su gobierno.
d)
Robótica: diseño y construcción de mecanismos controlados por computadora,
capaces de desarrollar actividades físicas.
e)
Automatización: diseño y construcción de
dispositivos para el control por computadora de maquinas existentes.
|
TENDENCIAS TECNOLÓGICAS DE FUTURO.
Gags: croad computan, ordenador de ADN, ordenador cuántico, tecnología HUD,
web social, GPS, tecnología en coches, gafas de da, pulseras inteligentes,
playeras GPS, pantalla oled, nace, raid
Tecnologías futuristas actuales
Aunque parecen salidas de las películas de ciencia ficción, sin embargo estan
siendo utilizadas en la actualidad por universidades, gobiernos y todo tipo
de empresas. Son las tecnologías más futuristas, pero sin embargo totalmente
operativas a día de hoy.
Hacemos un breve repaso.
 Aptico
en redes sociales
Un dispositivo aptico es un
robot que tiene la capacidad de devolver fuerza al usuario en función de sus
movimientos en un mundo virtual (entornos de realidad virtual,
RV), permitiendo simular tacto
virtual en cualquier aplicación de computación gráfica.
Actualmente, se utiliza en medicina, defensa y robótica, sin embargo, ya está empezando a dar sus primeros pasos en ámbitos como
tele operación y tacto remoto.
Su inclusión en las redes sociales y la comunicación a distancia llegará en
breve, lo que permitirá tener experiencias y conversaciones más realistas con
personas que se encuentren en otra localización física.
 Software
que convierte lo real en virtual
Ya está siendo creada en el MIT
(Instituto Tecnológico de Massachusetts) y parece de pura ciencia ficción.
Es una superficie capaz de recrear en 3D y en tiempo real aquello que capta
una cámara conectada al sistema.
Las cámaras capturan los objetos en movimiento y en 3D. Un ordenador procesa
esos datos 3D y los transmite a una superficie con cilindros móviles que
generan una réplica del objeto al instante.
Dentro de poco, tendremos estas impresoras a nuestra disposición, creando
juguetes, piezas y modelos reales con nuestras manos de manera remota.
 Inteligencia
Artificial: «Hablar» con los videojuegos
Actualmente, el mundo de la Inteligencia Artificial y los videojuegos
se une en la generación automática de contenidos.
Por ejemplo, en el juego de Dar CRL, la Inteligencia Artificial ha sido capaz
de generar de manera automática la vegetación del juego, sin necesidad de
tener a un diseñador replicando y diseñando cada uno de los vegetales que
aparecen.
Sin embargo, no estamos muy lejos de ser capaces de generar automáticamente
conversaciones en los videojuegos, un avance increíble que dejaría que el
jugador pudiera hablar con el juego y, sin texto predefinido, el videojuego
creará la conversación en base a las preferencias del jugador.
 Teclados
virtuales
Existen en el mercado desde
hace algún tiempo, pero aún son pocos los usuarios que lo utilizan debido a
la poca fiabilidad de sus movimientos.
Se trata de generar un teclado virtual mediante una proyección virtual, de
manera que podamos escribir sobre cualquier superficie, y que un sensor
recoja los movimientos de nuestras manos con teclado.
 Robots de servicio
Existen muchos robots de
industria que ayudan en las labores de construcción y creación de máquinas.
Tanto en empresas, defensa, etc. estos dispositivos ayudan a las labores de
las personas.
Estamos muy cerca de que estos robots pasen a ser robots de servicios, que
puedan ayudarnos a realizar acciones diarias como cargar maletas, limpiar.
También existen ya robots que asisten a personas con necesidades o a mayores.
 Generadores
de modelos tridimensionales
Ya existe el inicio de
investigaciones que pretenden poder modelar en la realidad materia física
(plastilina, arcilla, etc.) y, de manera automática.
Gracias a captura de movimiento y análisis visual, se genera el modelo 3D en
el ordenador.
Sin necesidad de replicar el trabajo o de aprender miles de herramientas de
modelado. Microsoft se encuentra trabajando en esta tecnología que utiliza
las bondades de Conectó.
 Levitación real
Levitaron, un curioso aparato con el que
se puede lograr la levitación de una pequeña peonza mientras gira en el aire,
ya se encuentra en el mercado.
Se basa en un imán en forma de anillo que proporciona un campo magnético en
forma de copa, y un núcleo central que es también un imán.
Un proyecto del MIT Media Lob llamado Serón también lograba la levitación gracias
al magnetismo. En este caso la levitación
magnética está controlada por ordenador.
No obstante, el otro gran apartado en cuanto a levitación se refiere viene de
la mano de la mecánica cuántica, de la comunidad científica ya se está encargando de profundizar. La levitación cuántica tiene un amplio futuro ante sí.
 Móvil adaptado al movimiento
Actualmente, se está
investigando en el ámbito Universitario la capacidad de determinar la acción
de un usuario en función de los movimientos que realiza con el móvil.
Analizando los datos del acelerómetro integrado en los dispositivos móviles,
son capaces de evaluar si el sujeto está durmiendo, corriendo, andando o
estático.
Esto podría proporcionar la ventaja de adaptar las aplicaciones y funciones
del móvil en función de lo que esté haciendo el usuario en cada momento.
Por ejemplo, ponerte música si detecta que estás corriendo, silenciarte el
móvil si sabe que estás durmiendo y un largo etcétera de posibilidades
adaptadas al usuario. Es decir, teléfonos más inteligentes.
Tendencias en Tecnología
empresarial del futuro: EFICIENCIA
En estos tiempos de cambios acelerados, en gran medida impulsados por los
avances tecnológicos, es muy importante para los empresarios y directivos de
cualquier área funcional, escuchar la voz de los investigadores más avanzados
en tecnología.
Conocer las tecnologías del presente, pero, sobre todo, conocer cuáles son
las líneas de investigación y las expectativas de evolución de esas
tecnologías que puedan afectar a nuestra empresa, son elementos clave para
orientar correctamente la gestión sin que, además, haya demasiado tiempo para
la adaptación a los cambios dada la velocidad con que ocurren.
En la actualidad, toda la información la estamos gestionando mediante los
actuales ordenadores programables (que funcionan en base a instrucciones
expresas previas), pero el crecimiento exponencial de esa información a
partir de datos no estructurados ni certificados, apunta claramente a que esos
ordenadores no serán capaces de discriminar, tratar, almacenar, seleccionar,
en definitiva, gestionar, correctamente la información en los próximos años.
“El futuro”, según decía Salvador Martínez, IBM Global Managing Director,
“pasa por ordenadores tipo Watson”, y ese futuro está más cerca que nunca
(esto lo digo yo), porque hoy se puede leer en The New York Times, que IBM
pretende llevar la inteligencia de su superordenador Watson a la nube para
animar a la creación de aplicaciones.
El nuevo proyecto de IBM consistirá en llevar la inteligencia de este
superordenador a la nube por “una pequeña fracción del coste anterior” y “con
más del doble de potencia”. De este modo, los desarrolladores podrán acceder
a su API y toda una serie de herramientas con las que crear sus propias
aplicaciones y explorar nuevas soluciones que faciliten la vida de los
usuarios. Este servicio cloud incluirá, además, material educativo e incluso
una tienda de software.
La “sangre electrónica” de IBM
Pero IBM tiene más investigaciones abiertas, que serán claves para la
tecnología empresarial del futuro. Una de ellas es la creación de ordenadores
energizados y enfriados por líquido, tal y como lo hace el cerebro humano.
Hace unas semanas, el gigante azul dio a conocer un prototipo de un nuevo
ordenador inspirado el cerebro humano. Concretamente, un par de científicos
de la compañía buscan la forma de reducir el tamaño de los superordenadores
para ponerlos encima de tu escritorio. La clave está en un líquido capaz de
transportar energía y refrigerar a la vez. Llega la “sangre electrónica”.
“Queremos instalar un superordenador en un terrón de azúcar. Para hacer eso,
necesitamos un cambio de paradigma en la electrónica”. Con esta declaración
de intenciones, el Doctor Bruno Michel simplifica la explicación del proyecto
en el que está trabajando junto al Doctor Patrick Ruch para IBM.
La idea es llevar un superordenador que hoy ocuparía la mitad de un estadio a
un escritorio en el año 2060. ¿Cuál es la clave para reducir tanto el tamaño
de la máquina? La palabra clave es “eficiencia”.
 Actualmente, los
ordenadores utilizan tan sólo el 1% de su volumen para procesar información.
El resto del espacio es utilizado para alimentar y refrigerar el ordenador.
Por otra parte, según los científicos, el cerebro humano es capaz de utilizar
tan sólo el 10% de su volumen para esas tareas, utilizando el resto para
procesar una gran cantidad de información, convirtiéndose en una máquina de
cálculo perfecta situada en un espacio pequeño y que utiliza sólo 20 vatios.
Según Michel y Ruch, todo pasa por encontrar un líquido que haga las veces de
‘sangre electrónica’. Un líquido que permita transportar la energía hasta los
chips del ordenador y que se lleve el calor generado.
De esta forma, se podría reducir el volumen de un ordenador, ya que no sería
necesario ocupar grandes espacios con dispositivos para refrigerar los
componentes electrónicos y, además, los chips se podrían colocar en bloques.
Sin embargo, actualmente esta última idea es impensable debido al calor que
se genera en el interior de un ordenador, un líquido que pasara a través de
pequeños tubos entre cada uno de los chips haría posible reducir
considerablemente el volumen de una máquina.
IBM ya trabajó en este sentido con el sistema Aquasar, pero ahora busca la
evolución con un líquido que, además, sea capaz de transportar energía hasta
los componentes del equipo. Al igual que la sangre transporta azúcar para
llevarse después los residuos, IBM trabaja con el vanadio que, en estado líquido,
sería cargado con electrodos y bombeado hacia el ordenador, hasta donde
llevaría la energía necesaria para que sus componentes funcionen.
La tecnología empresarial del futuro
En este sentido, la compañía HP también está trabajando duro para sacarle brillo
a su bola de cristal. Para ello, se ha codeado con los mejores visionarios
del mundo empresarial, a nivel mundial, líderes de distintas industrias y los
mejores expertos en tecnología para encontrar los aspectos clave para que una
empresa no sólo supere los retos futuros, sino que triunfe en el año 2020 y
más allá.
Este esfuerzo realizado también por sus empleados, clientes y partners a
nivel mundial pertenece al nuevo proyecto de la compañía Enterprise 20/20. Se
trata de un informe completo donde se cubren todos los factores a tener en
cuenta. Este análisis ha desvelado, también, cuáles serán las necesidades de
las empresas y las personas en el años 2020 y el papel que tendrá la
tecnología.
El proyecto lo dio a conocer Enrique Solbes, vicepresidente de HP, en el
XXVII Encuentro de las Telecomunicaciones celebrado el pasado mes de
septiembre en Madrid. Las tendencias que pronostica:
-Surgirá una potente clase
media en países emergentes como China, India, Brasil y Rusia a la expansión
de las megalópolis, con un 60% de la población mundial habitando en ciudades.
-Las conexiones entre personas, máquinas y lugares serán cada vez más
intensas y fluidas. “La tecnología trabajará para nosotros, ayudando a
maximizar unos recursos escasos, a procesar ingentes cantidades de
información y a transformarla en conocimiento útil para las personas y las
empresas”, destacó Enrique Solbes.
-El movimiento Big Data continuará su marcha imparable: la cantidad de datos
en el mundo se incrementará un x44 respecto a los del 2009, alcanzando un
universo digital de 35 ZB en 2020.
-Contaremos con un hardware más inteligente y los data centers estarán
automatizados completamente.
-La seguridad del mundo digital será una de las principales preocupaciones.
Por ello, los sistemas de seguridad emplearán la inteligencia proactiva,
identificando los riesgos de ataque antes que cualquier humano.
-En las empresas: las nuevas capacidades de análisis -a una velocidad y
escala inimaginable hoy- permitirán mejorar el conocimiento sobre los
clientes y anticipar los cambios en el mercado.
-Aparecerá el marketing en tiempo real y el conocimiento desde la
información.
-Uno de los aspectos que más va a evolucionar será la forma en la que
trabajamos y los Recursos Humanos, todo evolucionará hacia un rol de gestión
en comunidad.
-La generación de los ’Millennials’ (no han conocido el mundo sin Google)
será la que mayor impacto tenga en la forma de trabajar y dé forma al
empleado de 2020: ágil, conectado y móvil.
-Otro cambio a tener en cuenta será la formación de equipos de negocio
integrados por los mejores profesionales, no pertenecerán a una empresa
concreta, sino que se unirán en clusters para ofrecer un producto o servicio
al mercado.
La adaptación necesaria
Uno de los problemas principales a los que se enfrentarán tanto las medianas
como las grandes empresas en el futuro, será al incremento de la potencia, el
almacenamiento y el ancho de banda disponible a través de la “nube” a un bajo
coste.
Las compañías seguirán acumulando crecientes volúmenes de datos, procedentes
de una gran variedad de fuentes cada vez a mayor ritmo, tendencia conocida
como “Big Data”. Además, el aumento del uso del vídeo y las redes sociales
como herramientas de comunicación también se expandirá entre las empresas. De
hecho, estas tecnologías ya existen y mientras las nuevas tecnologías ya
están probablemente emergiendo, serán las nuevas formas de aplicación de las
actuales las que llevarán a un cambio radical en los modelos empresariales.
Hace un tiempo Carsten Bruhn, Vicepresidente Ejecutivo de Ricoh Europe,
pronunció las siguientes palabras con las que nos quedamos:
“Las nuevas
tecnologías por sí mismas no ayudarán necesariamente a las empresas a
mantenerse al día con los cambios necesarios para sobrevivir y crecer. Son
los procesos empresariales que hay detrás de la tecnología los que deben ser
revisados y optimizados para añadir un valor empresarial real. En el centro
de este cambio, una empresa debe asegurarse de que sus procesos conectan a
las personas con la información, permiten una mayor colaboración y alientan a
compartir conocimientos. Los líderes empresariales tienen que elegir socios
que les ayuden a implementar los cambios de un modo efectivo en el tiempo. Ya
no es viable implementar las nuevas tecnologías simplemente para aprovechar
las ganancias en eficiencia a corto plazo”.
Los móviles del 2020: bajo la
piel y controlados por la voz y la mirada
El micrófono estará bajo la piel y la cámara será una lentilla. Todo
funcionará con la voz, la batería durará semanas sin recargar y las redes 5G
multiplicarán por 100 la actual velocidad. Así será, poco más o menos, los
dispositivos que utilizaremos como móviles en la próxima década.
"Lo bueno y malo de aventurar cómo serán las cosas dentro de cinco o
seis años es que siempre se podrá comprobar en el futuro si lo escrito en
este reportaje era realmente correcto".
Curados en salud con semejante advertencia, los expertos en
telecomunicaciones consultados por esta revista apuestan por dispositivos
cada vez más potentes, con baterías de larguísima duración y con nuevos
formatos de pantallas, ya sean virtuales o incluso arrugables.
El reconocimiento de voz será el sistema preferido de entrada de datos en el
horizonte del año 2020 y sucesivos. Asusta pensar que el micrófono, el
auricular y hasta las antenas podrán escamotearse bajo la piel, en un tinte
de uña, en un pendiente o en cualquier prenda de vestir. Serán dispositivos
weareables, que nos acompañarán a todas horas, silenciosamente con otros
artilugios.
Las anteriores son algunas de las conclusiones tras un sondeo entre
fabricantes de dispositivos y redes. Seis años puede ser un plazo
relativamente corto, pero tratándose de tecnologías móviles resulta casi una
eternidad.
Echando la vista atrás, en ese mismo plazo de tiempo acababa de nacer el
iPhone, un prodigio que dejó obsoleto todo lo anterior. Las aplicaciones
móviles o el cloud entonces eran terrenos apenas sin explorar. Tampoco
existían Whatsapp, ni Twitter ni otros prodigios que han cambiado
radicalmente la forma en la que nos comunicamos.
Formas inauditas de movies

Parece probable que el concepto
del smartphone tal y como ahora se entiende, el mismo que nos acompaña de
forma perenne en el bolsillo, pronto tomará otras formas. Ya lo hace
materializado en relojes (smartwatch)
o gafas (Google Glass) y en los próximos años cambiará su anatomía para
encarnarse en empaste molar, un tatuaje o un cubre botón de la camisa.
Las pantallas de cristal actuales serán una antigualla en cuanto los
polímeros electroluminiscentes demuestren sus capacidades. Son legión los
expertos en prospectiva que pregonan la eclosión de las holografías, de forma que la imagen
y el sonido romperán sus actuales limitaciones técnicas para convertirse en
lo más parecido a las apariciones de la princesa Leía de la película La
Guerra de las Galaxias. No se hablará de pulgadas cuando se pueda interactuar
sobre superficies luminosas flotando en el aire.
Eludir la ciencia ficción resulta complicado. La realidad aumentada madurará en los próximos años de tal forma
que los usuarios del próximo lustro se acostumbrarán a convivir en los
entornos virtuales y reales con absoluta naturalidad.
Los móviles y tabletas también derrumbarán la bíblica Torre de Babel al poder
disfrutar de la traducción instantánea con ayuda de sus dispositivos, lo que
rebajará la criticidad de conocer un segundo idioma para manejarse felizmente
por el mundo.
A modo de ejemplo, Motorola Mobility -propiedad de Google- ha patentado un
sistema de móvil escamoteado en el cuerpo humano donde el micrófono se oculta
bajo la dermis del cuello -zona donde se puede captar la voz humana con la
mayor calidad posible-. Lo más rocambolesco del invento es que el mismo micro
podrá detectar las mentiras, a través de las variaciones y alteraciones
nerviosas de los sujetos.
La telefonía móvil permitirá identificar a sus usuarios con la mayor eficacia
y seguridad que ofrecen los pasaportes actuales. Las tarjetas de crédito
también tienen la batalla perdida en cuanto los móviles ganan fuerza como
medio de pago. Las llaves que abren las cerraduras de la mayoría de nuestras
puertas también cederán su función a los celulares y sus hermanos. La voz o
la retina serán los métodos más habituales para bloquear y desbloquear los
móviles, sin necesidad de contraseñas.
Además, los móviles del futuro controlarán la salud de los usuarios, con
chequeos en tiempo real. La capacidad de proceso de los microchips de 2020
evolucionará de la misma forma exponencial que lo ha hecho en el pasado.
Algunos aventuran microprocesadores de 28 GHz, frente a los 2 GHz de los
smartphones actuales.
Los usuarios podrán reproducir sus películas o series a través del smartphone
para verlas en una televisión conectada o proyectada sobre cualquier
superficie. Ni que decir tiene que el móvil de dentro de seis años gozará de
la potencia de superordenadores actuales, para así gestionar en tiempo récord
todo el conocimiento disponible en Internet y ponerlo a disposición de los
usuarios.
Los teléfonos móviles de 2020, o como quieran que se llamen entonces, se
comunicarán con todos los electrodomésticos del hogar y de la ciudad. Las
smart homes y la smart cities hablarán el mismo idioma, en un Internet de las
cosas que demandará conectividad de calidad y permanente.
Algunas estadísticas para el futuro
La gran mayoría de los objetos cotidianos estarán conectados entre sí,
hablarán en su silencio digital, lo que permitirá dotar de inteligencia gran
parte del entorno. Todo lo anterior conlleva que el tráfico de datos se
multiplique por mil en los seis próximos años, lo que obligará a que las
redes emprendan un salto a lo que será la telefonía 5G, según calcula
Ericsson, compañía que también estima que en 2020 habrá más de 50.000
millones de dispositivos conectados -diez veces más que los actuales-, si
bien la velocidad de conexión será hasta 100 veces más rápida a través de la
telefonía 5G, aún huérfana de estándar.
La nanotecnología realizará nuevas conquistas en el negocio celular para
revolucionar el concepto tradicional de los móviles. El silicio quedará
obsoleto con nuevos materiales moleculares en los que los científicos llevan
años trabajando. Los móviles no sólo multiplicarán la duración de sus
baterías, sino que permitirán la recarga de las mismas en cuestión de
minutos... o segundos. Los sistemas de alimentación energética inalámbrica
permitirán que los dispositivos carguen sus baterías mientras reposan sobre
la mesa o en la guantera del coche.
La próxima era tecnológica será
la de los sensores y la hiperconexión global
La imparable penetración de la
tecnología personal está llevando a la Humanidad a la "era de los
sensores", un mundo hiperconectado en el que tan importante será la
gestión de la identidad como la relación con las máquinas.
Así se ha puesto de manifiesto en Sherpa Summit, un encuentro sobre Internet
y aplicaciones celebrado en Bilbao en Mayo de 2.013.
"Vivimos detrás de una pantalla, nos estamos volviendo zombis de los
móviles", ha expresado el desarrollador de Firefox OS Guillermo López.
Y esa realidad se va a acentuar en los próximos años, según el ex consejero
delegado de Apple John Sculley, quien ha apuntado que la humanidad está
entrando en la "era de los sensores".
 Basándose en datos
de Cisco, ha explicado que al comienzo de la próxima década habrá 20.000
millones de dispositivos inalámbricos conectados —no sólo móviles, también
cámaras o micrófonos— recopilando y generando datos.
Sculley ha apuntado mediante videoconferencia que se están gestando los
bloques de construcción de una computación más móvil que tendrá capacidad
para escuchar y comprender la información de esas numerosas fuentes.
En ese contexto aumentan las reservas sobre la privacidad y la seguridad de
los datos personales.
El responsable de investigación y desarrollo de Paypal, John Lunn, ha
resaltado que la vida física y la virtual tienen cada vez una mayor necesidad
de conectarse y la identidad real de los usuarios es relevante.
"Nuestros datos son importantes porque las empresas sacan partido de
ellos. Tenemos que preguntarnos qué vamos a recibir a cambio de ese regalo
que les damos. (...) Si no compartes tu identidad te estás perdiendo algo
importante, pero debes tener cuidado", ha alertado.
"Nos hemos abaratado, hemos regalado nuestra identidad a cambio de algo
tonto. Somos los responsables de darle valor a nuestra identidad", ha
recalcado por su parte la tecnóloga de Silicon Valley Chris Shipley.
Desde la Fundación Mozilla han defendido que no es necesario mirar muy lejos
para innovar porque la web, que nació hace 20 años, es también una vía de
futuro como plataforma móvil.
Según la responsable de la Fundación Mozilla, Mitchell Baker, la web es la
tercera alternativa a los sistemas operativos de Apple y Google, que dominan
el mercado, aunque ha reconocido que competir con ellos es "una labor
muy difícil".
El sistema operativo móvil Firefox OS es abierto, ya que está basado en el
lenguaje estándar HTML5, lo que le permite funcionar en los distintos
dispositivos. Su objetivo es penetrar en mercados emergentes con teléfonos
inteligentes asequibles.
"A veces se piensa que ya está todo hecho, pero van a entrar en el
sistema —Internet— de dos mil a tres mil millones de persona en los próximos
años. Y un entorno abierto es la mejor de las posibilidades (...) porque
tener que pedir permiso y vivir en el sistema de otro te impone
limitaciones", ha declarado Baker.
Abrir los teléfonos móviles
"La idea es abrir los teléfonos móviles", ha sostenido el
desarrollador Guillermo López, quien ha destacado que la web está llena de
posibilidades al ser "hackeable" y estar fuera de control de
compañías.
Y como las aplicaciones (Apps) han cambiado Internet, otro ex directivo de
Apple, Doug Solomon, ha compartido en Bilbao su fórmula mágica para crear
aplicaciones que "no den asco".
Los primeros pasos han de ser analizar lo que a la gente le importa y lo que
realmente desea, hablar en su mismo lenguaje y hacer prototipos gráficos del
proyecto desde el primer día para corregir posibles fallos antes de que sea
demasiado tarde.
Pero también se requiere eliminar cualquier obstáculo que se interponga en el
camino del usuario —aspirar a la sencillez—, buscar inspiración fuera de la
oficina e intentar que la "app" sea divertida: "Tratamos de
conseguir que las personas cambien su vida" con las aplicaciones, ha
sentenciado.
El responsable de Global Affaires y New Ventures de Telefónica, Javier
Santiso, ha dicho en una entrevista que los mejores emprendedores españoles
están mejor formados que los de Silicon Valley.
Aunque ha reconocido que las startups no son la solución a la crisis, ha
destacado que en esta coyuntura hay "bendiciones disfrazadas" que
sólo surgirán si se resetean los modelos establecidos.
Según la responsable de la Fundación Mozilla, un grupo de personas puede
construir algo que tenga impacto, pese a que el resto del mundo pensara que
era descabellado. La tecnología, la realidad lo atestigua, no tiene límites.
Tendencias futuras en Neurociencia
e interacción Hombre-Máquina
 Sobre Neurociencia y Neurociencia, la revista New
Scientist analizó el tema según las predicciones de los principales
investigadores en el área y, si tienen razón, vamos a estar discutiendo,
preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las
implicaciones de la publicidad en implantes cerebrales.
Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios
pensamientos o meras ideas implantadas por los anunciantes.
Los vehículos que se manejan solos relegarán a los conductores humanos
tradicionales, que sólo podrán estar al volante en parques especiales de
recreación.
Y el número óptimo de dedos en nuestras manos será 12,5.
¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según
investigadores especializados en tecnologías
de interacción humano-computadora (CHI).
Humanos y computadoras
 Normalmente, CHI significa investigar formas de interacción entre humanos
y los dispositivos electrónicos. Pero en una conferencia celebrada
recientemente en Toronto, Canadá, fueron más allá.
Crearon el programa de una conferencia imaginaria celebrada en el año 2039,
donde se predicen los retos que enfrentaremos con las computadoras del
futuro, muchas de las cuales serán implantadas.
"Se supone que es una especie de parámetro en la investigación de la
interacción humano-computadora, lo que realmente es aterrador o
provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca,
Nueva York.
"Hay una gran cantidad de pensamientos retrospectivos sobre el pasado,
pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual
creemos que estamos trabajando".
New Scientist utilizó el resumen de esta hipotética conferencia para crear
una lista de preguntas que, en el año 2039, podrían hacerse nuestros
descendientes cyborg.
Órganos Intercomunicados entre sí
En un resumen titulado "Mi hígado y mi riñón compararon notas", el
investigador Michael Muller de IBM, con sede en Cambridge, Massachusetts,
observa lo que pasa cuando los monitores implantados en los órganos internos
de las personas, una red que él llama Arterionet, son capaces de compartir
datos y acumular conocimientos para ofrecer consejos vinculados a la salud.
Su conclusión: "Aunque la mayoría de los usuarios se mostraron
escépticos, muchos proponen características adicionales que podrían llevar a
una mayor aceptación y cumplimiento de dichas recomendaciones".
Cabe pensar en cómo la gente podría lidiar con los consejos de salud de los
monitores de órganos.
La tecnología portátil que registra actividad o estadísticas de salud ha ido
ganando en popularidad desde que a principios de año investigadores
implantaron tiras de silicona que generan energía en los corazones, pulmones
y diafragmas de vacas, cerdos y ovejas vivas.
Muller dice que el mayor reto de la creación de Arterionet será averiguar
cómo insertar una inteligencia artificial en un contenedor lo suficientemente
pequeño y seguro.
Plantas con Facebook propio
Se crearán redes sociales para plantas que nos ayudarán a abastecernos de
alimentos.
Para entender esta cuestión, necesita saber de Plantastic, una creación de
Bill Tomlinson, y de sus colegas, en la Universidad de California en Irvine.
En su resumen, razonan que para que nuestro suministro de alimentos sea más
sostenible, puede resultar lógico sembrar más frutas y verduras cerca de
nuestra casa. Pero ciertos cultivos prosperan cuando son plantados en grandes
cantidades o junto a alguna otra planta, lo cual no siempre es posible para
el agricultor promedio.
La plataforma Plantastic le recomendará qué plantas funcionan mejor en su
área y le dirá qué están sembrando en su vecindario.
Nanochips en las plantas enviarán los datos de nuevo al sitio. Esta
información a su vez se podría utilizar para saber qué crece mejor en cierto
tipo de ambiente.
El equipo de Tomlinson creó un estudio de ficción que observó diez huertos
durante dos estaciones de crecimiento. El estudio sugiere que el uso de
Plantastic aumentará el rendimiento de un 4% a un 12%.
Juliet Norton, estudiante graduada de Tomlinson, está trabajando en una
versión inicial de como se vería el sistema en línea.
Vehículos autónomos inteligentes
 Andreas Riener del Institute for Pervasive Computing en Linz, Austria,
escribió una presentación que arranca con una visión audaz del futuro:
"El primer vehículo sin conductor cruzó nuestras carreteras en 2019.
Ahora, 20 años después, es el momento de revisar cómo esta innovación ha
cambiado nuestro comportamiento con respecto a la movilidad”.
Esta visión se basa en una tendencia real. Los automóviles sin conductor han
sido objeto de titulares desde hace varios años. Es legal conducirlos en el
estado de Nevada, y el automóvil sin conductor de Google ya acumula cientos
de miles de kilómetros de práctica.
La contribución de Reiner es explorar cómo esto nos va a cambiar. Él predice
que una vez que los robots puedan conducir en cualquier lugar, muchos de
nosotros vamos a perder por completo el interés en conducir.
Muy pocos tendremos vehículos propios. Quienes lo tengan no perderán tanto
tiempo equipándolos o manejándolos sólo por diversión. Las personas que
todavía aman a los automóviles tendrán que hacerlo en "parques de
recreación" especiales, donde puedan conducir de forma manual en un
ambiente artificial.
"Si los vehículos del futuro son sólo un medio para llegar de A a B,
esta cultura del automóvil podría perderse", dice.
Ideas implantadas
Varios colaboradores de CHI 2039 imaginan un futuro de implantes cerebrales.
Estudian si serán dispositivos que capturen las percepciones de cada uno de
nuestros sentidos o si leerán directamente la información transmitida por
nuestras neuronas.
Los científicos no se preguntan si los implantes serán una realidad sino
cuándo lo serán, lo que podría generar oportunidades pero también retos.
Shachar Maidenbaum de la Hebrew University of Jerusalem, Israel, imagina
dispositivos que registrarán nuestras experiencias del día a día y luego nos
permitirán compartir nuestros recuerdos con otros, revolucionando tribunales,
aulas y nuestras interacciones sociales.
Por su parte, Daniel Gruen de IBM Research, contempla dispositivos que
podrían estimular la memoria cuando se nos olvida algo, lo que podría tener
algunas consecuencias escalofriantes.
"Imagínese que en un futuro contamos con sistemas que nos ayuden con la
memoria", dice. "¿En qué momento usted comenzará a preguntarse, 'Un
momento, tuve una idea. ¿Será realmente mía o es que la idea viene de otro
lugar?'".
Manipulación e implantes genéticos
¿Alguna vez ha tenido que esforzarse para deslizarse a través de la pantalla
de su iPhone? Ese ya no será un problema cuando nos implanten un pulgar adicional
en la mano.
Ese es el punto de partida de un estudio ficticio en el que 124 personas
optaron por implantarse dedos biónicos en sus manos, hasta un promedio de
13,4.
Johannes Schöning, científico informático en la Universidad de Hasselt en
Bélgica y sus colegas, incluso tienen una conclusión interesante: "12,5
es el numero óptimo de dedos en la mano, con seis dedos de tamaño normal en
cada mano y la mano dominante con un dedo extra, mediano, que puede moverse
libremente a 6 grados".
Es algo interesante, pero incluso Schöning admite que 25 años podría no ser
suficientes para que esto suceda.
Originalmente, este artículo fue publicado por la revista New Scientist
science y la revista de tecnología. Para mayor información, visite a New
Scientist.
El futuro de las
telecomunicaciones
En un mundo marcado por la
creación constante de contenidos y el acceso a los mismos las 24 horas al
día, los 7 días de la semana, los expertos consideran que mejorar la
experiencia de usuario tal y como hoy la conocemos será clave para avanzar
hacia un nuevo nivel en la era de la información. Tanto es así que el
proveedor TIC Huawei ha redactado un decálogo de factores a tener en cuenta
durante los próximos años.
Esto es lo que necesitará la
industria:
 1.- Desarrollar infraestructuras tecnológicas basadas en cloud computing,
en tanto que la nube supone una evolución lógica de Internet y permite a las
empresas gestionar el fenómeno del “Big Data” conforme a sus necesidades.
2.- Aprovechar este impacto del
cloud para transformar las TIC y llevar a las PyMEs las mismas soluciones
tecnológicas de las que ya disfrutan las grandes corporaciones. Por ejemplo,
la personalización de servicios más seguros y fiables.
3.- Adaptar la red móvil a la
era del gigabyte mediante el desarrollo de infraestructura de banda ancha con
mayor nivel de tráfico. El objetivo último es reducir el tiempo medio que se
emplea en transportar información entre dos puntos.
4.- Evolucionar hacia redes de
próxima generación ALL-IP y lograr la convergencia entre redes fijas y
móviles. Esto significa completar la migración de servicio, su
interconectividad y realizar cambios tanto operacionales como de
mantenimiento.
5.- Proveer de redes
inteligentes y operaciones de ancho de banda bajo demanda, contribuyendo así
a optimizar la eficiencia del servicio y a reducir los costes.
6.- Modernizar los sistemas de
TI de los operadores de modo que soporten los procesos de principio a fin,
desde el diseño y desarrollo de productos hasta la puesta en marcha en el
mercado y la distribución. Esto es, los sistemas de soporte de operaciones
(OSS) y los de apoyo a las empresas (BSS).
7.- Integrar el contenido
digital y desarrollar multiplataformas (móvil/PC/TV/PAD) que funcionen
también bajo demanda, ya que cada vez un mayor porcentaje de la población
consumirá y generará contenidos a través de la Red de redes.
8.- Analizar grandes volúmenes
de información y extraer conclusiones que ayuden a obtener ventajas
competitivas y diferenciadoras, más allá de los tradicionales sistemas de
gestión.
9.- Garantizar la seguridad de
la información de usuarios y empresas, así como su privacidad. Algo que viene
condicionado por la existencia de redes IP abiertas y la popularidad de los
modelos de almacenamiento virtuales.
10.- Implementar redes ópticas
inteligentes que sustituyan al cable de cobre, ofrezcan mejores opciones de
desarrollo,
nternet, con la ventaja de que
estés donde estés, puedes escuchar tu emisora favorita, como por ejemplo con
TuneIn. Y esto se podría aplicar a cualquier otro contenido multimedia.
Y por supuesto, cuando el coche esté parado, y el conductor no corra el
riesgo de distraerse fatalmente, siempre queda la opción de navegar por la
red libremente y visitar páginas y páginas: para leer el periódico, consultar
la bolsa, acceder a tal o cual blog..
Como podéis ver todas estas posibilidades, y muchas más que se les ocurran a
los desarrolladores, ya las tenemos, o podríamos tener a través de un
smartphone o una tablet, el resto está en que se integren totalmente y se
sinergicen dentro
información más rápido
(aproximadamente en la mitad de tiempo) y que su vista se fatigue menos, pues
los ojos tienen que hacer menor esfuerzo a la hora de enfocar los datos, al
haber menor diferencia de distancias entre la carretera y el parabrisas, que
entre la carretera y el cuadro de instrumentos.
De ahí que muchos consideren el HUD como un sistema muy útil en los coches,
que mejora la seguridad pues el conductor permanece con la vista en la
carretera, más concentrado, y se reducen las ocasiones en las que la aparta.
Ahora bien, todo tiene su justa medida. Debemos cuidar de que la cantidad de
información que se proyecta sea la justa, útil y necesaria.
Proyectar demasiados datos y ocupar mucha superficie, complican la
comprensión y asimilación de los mismos, pueden tapar la visión de cosas que
sucedan en la carretera y pueden distraer al conductor.
¿Qué información podemos considerar útil? En mi opinión con la velocidad en
dígitos y un cuentavueltas básico sería suficiente. De manera complementaria
podría incluirse también el límite de velocidad del tramo (utilizando un
sistema de reconocimiento de señales) y las indicaciones esquemáticas del navegador GPS.
Más
resolución, color, láser y gestos
Los sistemas HUD más habituales hoy en día, suelen ser monocromos, en colores
como el blanco, azul, verde o naranja. Sin embargo ya se están presentando
evoluciones que combinan varios colores (aunque por ahora tampoco muchos,
solo dos, tres o cuatro).
De este tipo se pueden encontrar, por citar algunos ejemplos, en varios
coches híbridos, como el Toyota Prius (una berlina de tamaño medio), el
Toyota Prius+ (un monovolumen de siete plazas), el Peugeot 3008 HYbrid4 (un
todocamino con tracción a las cuatro ruedas), y el Citroën DS5 Hybrid4 (una
berlina deportiva), coches de los que podéis ampliar información en
Motorpasión Futuro si tenéis curiosidad.
Los sistemas del Citroën y del Peugeot son ligeramente diferentes, ya que no
proyectan la imagen directamente sobre el parabrisas, sino sobre una pequeña
pantalla de policarbonato transparente escamoteable. He conducido ambos
coches y el sistema me resultó también bastante cómodo e igualmente útil.
Incluso ya hay alguno que
proyecta imágenes con más resolución y capacidad de mostrar gráficos más
complejos y realistas con una paleta de colores más amplia, de 16 o 32
colores. BMW ya tiene uno de estos en sus coches más modernos.
Se está probando también proyectar otro tipo de información, como por ejemplo
un asistente para mantener la distancia de seguridad con el vehículo que nos
precede en la carretera. De nuevo BMW está en ello.
Pioneer está trabajando en un HUD láser económico, integrado de fábrica en
los coches, que podría estar para el año 2016 a un precio de unos 200 dólares
(unos 160 euros al cambio actual). Es a color y muestra también información
del navegador GPS y de la agenda de contactos del teléfono.
Y por último Mercedes-Benz, como proyecto más de futuro, ha presentado un
sistema de proyección de información sobre el parabrisas que incorpora también
la realidad aumentada y el control por gestos. Este sistema muestra
información interactiva en tiemo real al ir conduciendo con el coche, como
por ejemplo un monumento, o un restaurante. Este tipo de información es a la
que me refería antes: puede que sea demasiada y distraiga al conductor.

El disco de datos que
sobrevivirá a la humanidad
Científicos de la Universidad de Twente, Holanda y el Centro Kist Europa, en
Alemania, crearon un disco para almacenar datos que, dicen, podrá sobrevivir
un millón de años.
Igual que la Piedra Rosetta permitió al mundo moderno comprender la florida
cultura de los egipcios, Jeroen de Vries cree imprescindible que el hombre
produzca un gran documento que le sobreviva. Una obra única que permita
descifrar la humanidad a ojos de futuras civilizaciones, incluso cuando el
ser humano se haya extinguido.
De Vries ha dedicado su investigación de doctorado en el Instituto de
Nanotecnología MESA+ de la Universidad de Twente (Holanda) a fabricar un
disco hiperresistente. Tanto, que conservará su información a pesar del
tiempo y quedará para quien habite el planeta dentro de un millón de años.
 La producción del disco se enmarca dentro de un proyecto más grande
llamado Documento de la humanidad.
"Estamos buscando la forma de almacenar datos de tal manera que lleguen
intactos al futuro y sean comprensibles incluso a una inteligencia no humana.
Podemos, por ejemplo, dejar como legado una copia digital de la Mona Lisa u
otros cuadros que representan nuestro paso por la Tierra", cuenta Jeroen
de Vries vía telefónica a BBC Mundo.
"Si no hacemos nada, no podremos elegir qué información pervive, ya que
sería cuestión de casualidad", añade el director del doctorado, Miko
Elwenspoek.
Y es que, pese a que en esta era de internet la cantidad de información que
producimos es ingente, pocos piensan en conservarla para que resista el
tiempo a gran escala. Los DVD o CD de los que tenemos en casa pueden resistir
unos 40 o 50 años a temperatura ambiente.
La gran aportación de de Vries al Documento de la humanidad es la durabilidad
de este CD, capaz de resistir como mínimo un millón de años, "aunque
queremos hacerlo aún más longevo", asegura.
Para demostrar la robustez de su disco, la Universidad de Twente ha producido
un video en que muestra que puede acceder a su contenido incluso después de
someterlo al calor de todo tipo de hogueras.
En el video se ve cómo un estudiante de la universidad fríe un huevo
directamente sobre el disco, después lo quema junto con carbón y, no contento
con eso, decide terminar por "cocinarlo" a la parrilla junto con un
par de hamburguesas.
El disco supera todas estas pruebas:
su contiene sigue siendo accesible.
De Vries basa la convicción de que el disco logrará resistir tanto tiempo en
una ecuación matemática llamada ecuación de Arrhenius. Según ésta, el
material debería resistir al menos una hora a 188 grados centígrados para
simular el deterioro que sufren los materiales en un millón de años.
El truco de la longevidad
"El truco que utilizamos es insertar puntos de material en cerámica, que
es químicamente, térmicamente y mecánicamente muy resistente. El material
incrustado en la cerámica está protegido de cualquier embate ambiental. Esto
hace que los datos sean robustos durante millones e incluso miles de millones
de años", explica Miko Elwenspoek.
El plan del proyecto Documento de la humanidad tiene pensado incluso cómo y
dónde es el mejor lugar para ubicar ese "regalo informativo" para
nuestros sucesores en la Tierra.
Su idea es proteger los discos guardándolos en los mismos recipientes que
contienen los residuos nucleares para que su exposición a las inclemencias
del mundo sea la menor posible.
Por ahora se han producido cuatro discos hiperresistentes, aunque ninguno es
el definitivo. "Eso tomará unos años", dice Vries, que asegura que
su disco tiene aún posibilidad de mejorar y ser aún más resistente.
La información que contiene el disco que se ha quemado en el video es sólo
"un ejemplo", aún no está completo con la historia relevante sobre
la humanidad.
En esta versión de prueba se insertó un código QR en el CD, que se reprodujo
cada vez más pequeño hasta una escala nanométrica, para comprobar que la
información no se daña. "Pero probablemente sea otro tipo de
codificación la que se utilice en un hipotético CD definitivo", explica
Vries.
Los prototipos ya tienen una característica que pretenden que no varíe: no se
podrán modificar. "Ésta ha sido una decisión intencional. Una vez se
graban los datos esa información no se podrá cambiar, ampliar ni alterar. No
queremos que nadie lo pueda modificar".
En 10 ó 20 años
Ante un auditorio repleto y entusiasmado, el Dr. Michio Kaku, en 2011, daba
una conferencia sobre cómo será la vida dentro de tan sólo un par de décadas,
recorriendo el día a día de cualquier persona. Realidad Aumentada,
nanotecnología y conexión total, suficientes para llevar a cabo la revolución
digital.
La realidad aumentada dará toda clase
de información sobre el mundo
El doctor en física teórica de la Universidad de Nueva York llegó a la
primera jornada de Movilforum Conference de Telefónica sabiendo que tenía un
material sensacional para impresionar a su audiencia. Pero en toda su
exposición siempre se mantuvo apegado a la realidad (o casi).
“The Next 10 to 20 Years into the Future” sirvió para comprobar que la
tecnología que hasta hace muy poco era considerada como algo futurista está
actualmente o en investigación o incluso en pruebas. Por eso, a cada idea
‘descabellada’ le seguía el nombre de la empresa u organismo público que lo
está desarrollando.
Las telecomunicaciones en la persona
La Realidad Aumentada será la palanca que impulse al ser humano a una
sociedad repleta de conocimientos. Sin necesidad de alterar su cuerpo,
solamente con una conexión a Internet, se tendrá acceso a toda la información
tanto para el aprendizaje, como para el trabajo o para el ocio.
En 10 o 20 años, contaba el profesor Kaku, los cristales de las gafas o
incluso unas lentillas servirán de pantallas para completar la información
que el mundo real transmite. Un turista viajará a Roma y podrá ver a las
legiones luchando o las viejas construcciones.
Por otra parte, servirá como complemento a la información personal, ya sea
para subtitular a tiempo real a personas que hablan en otra lengua o para
recordar, mediante reconocimiento facial, de qué y cuándo conoces a esa
persona que te está saludando y que no ubicas exactamente. Sin olvidar la
enorme cantidad de usos militares, como por ejemplo para los pilotos de
avión, que podrán ver efectivamente en 360º.
Comunicación sin interrupciones
Todo será mucho más simple dentro de unos años. Las teles serán
transparentes, aunque proyecten imágenes 3D sin gafas. Es decir, una ventana.
De hecho, cualquier superficie será una pantalla, algo que ya se está consiguiendo
mediante varias investigaciones paralelas, una de ellas, la de Skin.
Pero irá más allá; gracias a su interacción, hablarle a la pared será como
decir “espejito, espejito mágico”, y se cumplirá el deseo del usuario.
El papel transformado en pantalla será tan barato como un folio actual. Se
convertirá en doctor en consulta rápida, en secretaria para ver la agenda o
también en reproductor de vídeo al que se le puede pedir, como decía el
físico, que en lugar de Humphrey Bogart el protagonista de Casablanca sea uno
mismo.
No habrá escritorio porque el hardware deja de ser necesario. Bastará con
escribir en cualquier sitio y el archivo se subirá a la nube. Y entonces,
como si supiese a quién pertenece, seguirá a su propietario “a cualquier
sitio y en cualquier momento. Es comunicación sin interrupciones”. Y tampoco
es ciencia ficción porque ya existe, por ejemplo, en los laboratorios de
Microsoft.
De la producción en masa a la
personalizada
Salir a la calle tampoco será lo mismo dentro de 10 ó 20 años. Google
sorprendía a propios y extraños hace unos días paseando por las autopistas de
Estados Unidos sus coches autopilotados. Este desarrollo, conjunto con
Toyota, es sólo el comienzo de un futuro que contempla sin atascos ni
accidentes.
Ya en la calle, una de las tareas que serán más sencillas en el futuro según
Kaku es la de comprar. La información almacenada permitirá pasar de la
producción de masas a la producción personalizada para que aumente el grado
de satisfacción del usuario. Por ejemplo, alguien llegará a una tienda y verá
un modelo que le guste y le quede más o menos bien en función de su talla.
Pero eso ya no será un obstáculo porque, al pagar, la tarjeta de crédito dirá
a la fábrica que produzca ese modelo con unas medidas determinadas para su
cliente.
El capitalismo utópico de Adam Smith estará más cerca, asegura el doctor, ya
que el usuario tendrá en todo momento mucha más información. Sobre los
precios de todas las tiendas, sobre la calidad y fabricación de los
productos, sobre los bienes sustitutivos. Cómo implantarlo socialmente, eso
sí, no es su campo.
Y por encima de todo, la salud
La medicina reducida a las telecomunicaciones. El final de la conferencia
puso la vista en un mundo en el que no hay lugar a la intimidad, ya que el
ser humano está constantemente controlado por su entorno.
Desde el punto de vista médico, por ejemplo, el váter será capaz de analizar
día a día la orina para recomendar una dieta, el cepillo de dientes pedirá
cita en el dentista si detecta una caries, la ropa sabrá cómo está la
temperatura corporal o si hay algún fallo funcional y avisará a urgencias si
es necesario.
Y por qué parar aquí. La reconstrucción de órganos para implantes partiendo
de células propias, las interfaces cerebrales que permiten ya a una persona
con parálisis total navegar por Internet o jugar videojuegos o nanocápsulas
recorriendo el interior del cuerpo humano en busca de problemas. Todo es
posible en un futuro que estará aquí en 10 ó 20 años.
|
f) Domo tica (edificios inteligentes): Aplicacion de la automatizacion, inteligencia
artificial y optimizacion para el manejo eficiente y control de los
recursos de un edificio.