Bloque
1
Introducción a la
informática
Actividad
1
Ciencia y tecnología
Actividad 1.1
1-Describe
los cinco avances tecnológicos actuales que te resulten más sorprendentes.
a)
El vehículo espacial.
b)
El robot espacial.
c)
El .
d) El sistema para evitar que los líquidos se adhieran en
cualquier tipo de superficie.
e) Las flyknit
Raser
Actividad 1.2
1-menciona tres
desarrollos tecnológicos que imagines que se darán en el futuro.
a)
Que los educadores en vez de humanos sean robots.
b)
Que las computadoras en vez del teclado funcione con la voz humana.
Actividad 1.3
Con la ayuda de tu
profesor, organízate en grupos pequeños con tus compañeros de clase y realiza
lo que se pide.
1-investiga en tiendas de
computación, en revistas o en una enciclopedia, que nuevos equipos periféricos
existen (por lo menos 3) para las computadoras actuales y para qué sirven.
Periférico
Utilidad
a)
teclado (Keyboard)
Dispositivo de entrada, que por medio de un conjunto de teclas de entrada permite al usuario comunicarse con la computadora. Los teclados de las terminales y de las computadoras personales contienen las teclas de una máquina de escribir estándar, además de un cierto número de teclas especiales.
Dispositivo de entrada, que por medio de un conjunto de teclas de entrada permite al usuario comunicarse con la computadora. Los teclados de las terminales y de las computadoras personales contienen las teclas de una máquina de escribir estándar, además de un cierto número de teclas especiales.
b)
lapiz óptico (Optical
Reader)
Muy utilisado por nosotros en los grandes supermercados, los cuales interpretan información codificada mediante un sistema de barras.
Muy utilisado por nosotros en los grandes supermercados, los cuales interpretan información codificada mediante un sistema de barras.
c)
micrófono (Microphone)
permite por medio de la voz indicar alguna instrucción a la computadora. Ya comenzamos a ver a nuestro rededor sistemas de cómputo basados en el reconocimiento de voz que puede efectuar una computadora mediante una tarjeta instalada específicamente para convertir la voz en bits y viceversa, así ya comenzamos a ver aparatos controlados por voz, como algunos que nos contestan por teléfono cuando llamamos a algún banco para pedir nuestro saldo.
permite por medio de la voz indicar alguna instrucción a la computadora. Ya comenzamos a ver a nuestro rededor sistemas de cómputo basados en el reconocimiento de voz que puede efectuar una computadora mediante una tarjeta instalada específicamente para convertir la voz en bits y viceversa, así ya comenzamos a ver aparatos controlados por voz, como algunos que nos contestan por teléfono cuando llamamos a algún banco para pedir nuestro saldo.
2-¿Qué tipo de procesador tiene la computadora de tu escuela?
- Inter (r) Pentium (r) CPU G630@270Ghz 2.70Ghz.
3-¿Qué sistema operativo la computadora del laboratorio de
computo de tu escuela?
- Windows 7 profesional.
4-Escribe el nombre de tres de las aplicaciones o programas que
tienen las computadoras de tu escuela.
a)
-Auto card 2007 (programa de diseño).
b)
-Edusoft (programa se ingles).
c)
-Microsoft office2010.
5-Identifica las marcas comerciales de los siguientes
componentes de las computadoras de tu escuela.
- monitor:
DELL.
- Ratón: DELL.
- Teclado: DELL.
- Impresora: DELL.
Actividad 1.4
·
1-aprovechando tu
visita a una tienda de computadora, investiga los nombres de dos programas que
realicen cada una de las siguientes actividades
Procesador de textos
-Microsoft
word.
-Word pad.
Hojas o libros de cálculo
-Word perfet.
-Writer de
openofice.
Presentaciones electrónicas
-Power point.
-Open Offices org impress.
Bases de datos.
-Acord.
-Isis/base.
2-si pudiste ver la ventana
propiedades del sistema para saber qué tipo de procesador tenia tu computadora,
averigua cuanta memoria RAM tiene.
Memoria RAM: -4gbs. GB.
3- Escribe debajo de cada figura, de
tipo de personal informático se trata:
- Un maestra
-Un estudiante
-Un tecnico
Actividad 1.5
1-relaciona las actividades que realiza la computadora con las unidades de la CPU poniendo el número que
corresponde. Sigue el ejemplo.
(1) Suma 3+4+5+8+25.
(2) Lee el numero 8 y lo lleva al monitor.
(3) Almacena el valor 13 y lee lo que
está en la dirección FF2A.
(1) Imprime el archivo carta.doc.
(3) Almacena como C, el resultado de
la operación A+B.
(1) X es 25; Y es 15.
(2) Avisa a la impresora que se
enviara un archivo para imprimir.
1. Unidad aritmética y lógica.
2. Unidad de control.
3. Unidad de memoria.
Las computadoras tienen una manera lógica
de operar, como la mayoría de las cosas en este mundo. Su funcionamiento se
puede resumir en tres pasos básicos.![]() |
|||
|
|||
De manera muy parecida suceden los
acontecimientos de su vida: la entrada de datos son tus acciones y actitudes;
el procesamiento se lleva a cabo en tu interior y en el interior de la sociedad
en que vives, y los resultados son tus triunfos o tus fracasos, y los de la sociedad
en su conjunto.
2-relaciona con una línea las
acciones de la izquierda con los resultados de la derecha.
![]() |
|||
![]() |
|||

xicto![]() |
![]() |
|||
![]() |
|||

Actividad 1.6
1-investiga el funcionamiento de un
termómetro clínico y analízalo.
·
¿Cuál
sería su unidad de entrada?
Bulbo
·
¿Cuál
sería su unidad de proceso?
Vástago
·
¿Cuál
sería su unidad de salida?
Mercurio
2-investiga y contesta. ¿Qué miden los siguientes instrumentos?
Escribe cual sería la unidad que se pide al final.
·
Manómetro

·
Pluviómetro: su unidad de
proceso se llama colector.
·
Voltímetro
·
Unidad
de salida:
·
Unidad de proceso:
·
Unidad
de entrada:
Actividad 1.7
Con la ayuda de tu profesor,
organízate en grupo pequeños con tus compañeros de clases y realiza lo que se
pide.
1. Escribe en una hoja
cuadriculada cada una de las letras del alfabeto y, frente a ellas, su
correspondiente representación grafica en códigos Morse y braille. Investiga en
una enciclopedia los códigos. 


2. ¿para que se utiliza el código braille?
Este es un sistema de lector-escritura utilizados por ciegos.
Actividad
1.8
1. Representa con un byte, mediante
ceros y unos, la letra Y mayúscula del código ASCII.
|
Bit7
|
Bit6
|
Bit5
|
Bit4
|
Bit3
|
Bit2
|
Bit1
|
Bit0
|
|
|
|
|
|
|
|
|
|
Actividad
1.9
1. La letra A se encuentra en la posición decimal 65 y la z
en la 90. Repasa la tabla ASCII de las
mayúsculas y forma tu nombre representado cada letra con un byte.
|
binarios
|
27
|
26
|
25
|
24
|
23
|
22
|
21
|
20
|
|
|
Decimal
|
128
|
64
|
32
|
16
|
8
|
4
|
2
|
1
|
|
|
|
letra
|
Posición ASCII
|
|
|
|
|
|
|
|
|
N
|
Bit7
|
Bit6
|
Bit5
|
Bit4
|
Bit3
|
Bit2
|
Bit1
|
Bit0
|
|
|
O
|
|
|
|
|
|
|
|
|
|
|
M
|
|
|
|
|
|
|
|
|
|
|
B
|
|
|
|
|
|
|
|
|
|
|
R
|
|
|
|
|
|
|
|
|
|
|
E
|
|
|
|
|
|
|
|
|
|
|
S
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Actividad 1.10
1-observa los aparatos de tu casa y
anota en las líneas de abajo cuales crees que sean analógicos y cuales digitales.
Analógicos
Digitales
1)
-reloj
2)
-cámara
-DVD - cámara. - televisión.
2-investiga en una enciclopedia, en revistas de computación, en
una enciclopedia virtual como Encarta, o en el departamento de cómputo de una
universidad de tu comunidad, cuales son las características y aplicaciones de
una supercomputadora. Compáralas con las de la computadora de tu escuela.
Las principales características
de una supercomputadora son:
- procesan gran cantidad de información en poco tiempo.
- Son las más potentes y rápidas.
- Cuentan con un control de altas temperaturas.
En comparación con la de mi escuela la diferencia es que la
supercomputadora tiene más capacidad de procesar datos todos en un mismo
tiempo; además de que traen su propio sistema de enfriamiento entre otros.
Actividad 1.11
1-Organiza con tus compañeros grupos de cuatros a seis integrantes
y visiten tiendas de computadoras para investigar el nombre de tres importantes
empresas fabricantes de microcomputadoras. Comenten, junto con tu profesora o
profesor, cuales son las tres más importantes de tu localidad:
a) DELL.
b) HP.
c) IBM.
2-Cada uno de los grupos debe ir a una tienda de cómputos
diferentes. Preguntan las características de la mejor computadora que tenga a
la venta y compárenlas. Anota aquí las de la computadora con mejores características:
Características:
a) . Sistema
operativo: Intel (R) core(TM)2 Duo CPU T6600 @ 2.20Ghz 2.20Ghz
b) Memoria Ram:
4,00Gb.
c) Capacidad de almacenamiento
de disco duro: 300Gb.
d) Procesador:
Windows 7 ultímate.
Actividad 1.12
1-acude a un supermercado cerca de tu
casa y pregunta para que utilizan la computadora. En los supermercados utilizan las computadoras como caja registradora, para
la administración y controles internos
como inventarios.
2-pregunta
en la administración de tu escuela que uso dan a las computadoras.
Para usos académicos, calificar exámenes, realizar trabajos, llevar control
de asistencias, para uso de oficina como guardar archivos.
3-en
tu próxima visita al doctor, pregúntale para que usa la computadora.
En la medicina: Se utilizan para consultar los
números de la sala que necesite el paciente, también para imprimir la receta
escrita por él mismo por el ordenador, y otras cosas más.
4-investiga que aparato o
dispositivos de los automóviles o del hogar utilizan computadoras
.
Automóvil. Hogar.
a)
GPS a)
lavarropas
b) microondas.
b) microondas.
C) televisión
D) aire acondicionado.
Actividad 1.13
1-imagina un mundo sin computadora y descríbelo brevemente.
El mundo sin computadores sería un
mundo muy limitado, pues no habría comunicación al exterior excepto por
teléfono celular pero también hay que tener en cuenta que muchos negocios y
aportes se han hecho a esta herramienta llamada computadora.
También no podríamos compartir con amigos o familiares lejanos ya que es muy difícil localizar a un contacto lejano si no es por una Red Social.
Creo que la economía sería igual limitada y todo se vendría abajo, puesto que por Internet se hacen grandes compras y es uno de los medios de negocios más usados del mundo.
Sería también muy difícil darse por enterado de cosas que no pasan por televisión, hay veces censuran, aunque pienso que una computadora sin Internet no sirve para nada... Así que también va en torno a la Internet...
El mundo no sería igual, Cambiaría solo nuestra forma de vida.
Con aspectos positivos y negativos, claro...
También no podríamos compartir con amigos o familiares lejanos ya que es muy difícil localizar a un contacto lejano si no es por una Red Social.
Creo que la economía sería igual limitada y todo se vendría abajo, puesto que por Internet se hacen grandes compras y es uno de los medios de negocios más usados del mundo.
Sería también muy difícil darse por enterado de cosas que no pasan por televisión, hay veces censuran, aunque pienso que una computadora sin Internet no sirve para nada... Así que también va en torno a la Internet...
El mundo no sería igual, Cambiaría solo nuestra forma de vida.
Con aspectos positivos y negativos, claro...
2-¿crees
que por el hecho de que alguien sepa más que tú sobre computadora, tiene
derecho a entrar en tu computadora para husmear o robarte información? describe
algunas normas éticas que consideres validas para remediar esta situación.
Actividad 1.14
1-¿qué piensas que le
sucedería a una persona si alguien borrara de las computadoras todos sus registros de identificación como
acta de nacimiento, registro del seguro social, licencia de conducir y cuentas
bancarias?
Bien en mí pensar… si
sucediera eso automáticamente esa persona no existiera en la sociedad.
2-Discute con tus compañeros sobre que
normas éticas se deberían aplicar al utilizar las computadoras, para afianzar
cada uno de los siguientes valores:
a)
Libertad: libertad de expresión sin
tener que dañar, desacreditar a alguien en su cometario.
b)
Respeto: respetando las informaciones
personales de cada individuo y a su persona.
c)
Honradez:
Actividad 1.15
1-con la ayuda de tu
profesor, organicen el grupo en seis equipos para investigar sobre los
siguientes temas de computación:
a) La historia de
los inicios de la computación, desde los primeros instrumentos de cálculo hasta
las primeras maquinas mecánicas de calcular.
Una de las primeras herramientas mecánicas del cálculo fue el
ábaco en el medio oriente, el cual se compone de un marco atravesado por
alambres y en cada uno se deslizan una serie de argollas.
Tiempo después aparecen las
estructuras de Napier, que se utilizaron para multiplicar.
En 1642, Blaise Pascal, desarrolló una
calculadora de ruedas engranadas giratorias, (antecedente de la calculadora de
escritorio), sólo podía sumar y restar, se le llamó la "Calculadora
Pascal".
En 1671 Gottfried Leibnitz, construyó
la calculadora sucesora a la de Pascal la cual, podía efectuar las cuatro
operaciones aritméticas
Charles Babbage, matemático e
ingeniero inglés, es considerado el Padre de la computadora actual, ya que en
1822, construyó la máquina de diferencias , la cual se basaba en el principio
de una rueda giratoria que era operada por medio de una simple manivela.
Después ésta máquina fue sustituida por otra que podía ser programada para
evaluar un amplio intervalo de funciones diferentes la cual, se conoció como
"Máquina Analítica de Charles Babbage",
Años después, aparece Herman
Hollerith, quien, en 1880, inventó las máquinas perforadoras de tarjetas,
inspiradas en el telar de Jacquard, y la finalidad de la máquina de Hollerith
era acumular y clasificar la información. Con ésta máquina se realizo el primer
censo guardando la información en una máquina ya que ante, se procesaban en
forma manual.
Hollerith fue el iniciador de la gran
compañía IBM.
En 1884, Dor Eugene Felt, construye la
primera máquina práctica que incluía teclas e impresora, llamado
"Comptómetro o calculadora con impresora"
Konrad Zuse, construye su calculadora
electromecánica Z1, que ya emplea un sistema binario y un programa indicado en
cinta perforadora, fue la primera máquina de tipo mecánico y es considerada
como la primera computadora construida, debido a que manejaba el concepto de
programa e incluía unidad aritmética y memoria.
Howard Aiken junto con la IBM,
construyó en 1937, la computadora MARK 1, en donde la información se procesaba
por medio de tarjetas perforadoras, con esta máquina se podían resolver
problemas de ingeniería y física, así como problemas aritméticos y lógicos.
Después aparecen la MARK II, MARK III Y MARK IV. Con esta calculadoras se
alcanza la automatización de los procesos.
Von Neumann, construye la EDVAC en
1952, la cual utilizaba el sistema binario e introducía el concepto de programa
almacenado. La primera aplicación que se le dio a la máquina fue para el diseño
y construcción de la bomba H.
la ABC, computadora construida por
John Vincent Atanastoff, la cual contenía bulbos, es considerada como la primer
computadora electrónica.
La
historia de las primeras maquina de calcular, desde las primeras maquina
mecánicas de calcular hasta la perforadora de tarjetas de hollerith.
2500 a.C.
a. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.
a. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.
b. 2000 a.C.
- En el "I-Ching, o Libro de las mutaciones", también de origen chino, se encuentra la primera formulación del sistema binario.
- En el "I-Ching, o Libro de las mutaciones", también de origen chino, se encuentra la primera formulación del sistema binario.
c. 600 a.C.
- El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.
- El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.
d. 500 a.C.
- Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
- Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
e. 1633
- El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.
- El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.
f.
1642
- El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.
- El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.
g. 1671
- El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.
- El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.
h. 1833
- El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
- El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
i.
Babbage usaba cartones perforados para suministrarle datos a su máquina
(había copiado la idea del telar del francés Joseph Marie Jacquard, inventado
en 1801), que se convertirían en instrucciones memorizadas; algo así como los
primeros programas.
j.
Esperaba lograr imprimir la información registrada, obtener resultados y
volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía
hacer después.
k. La evaluación y la
retroalimentación se convertirían en la base de la cibernética, que nacería un
siglo más tarde.
l.
1847
- El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".
- El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".
m. Su álgebra era un
método para resolver problemas de lógica por medio de los valores binarios (1 y
0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra
binaria, posteriormente se desarrolló lo que hoy se conoce como código binario,
que es el lenguaje utilizado por todos los computadores.
n.
1890
- Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo.
- Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo.
Más tarde revolucionó el mercado con los
computadores personales o PC.
a. La historia de la computación hasta
la primera mitad del siglo xx.
Edad Media
El matemático e ingeniero persa Musa
al-Juarismi (780-850), inventó el algoritmo, es
decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de
operaciones
Siglo XVII
El matematico e ingeniero persa Musa al-Juarismi
(780-850), inventó el algoritmo, es decir, la resolución
metódica de problemas de álgebra y cálculo numérico mediante una
lista bien definida, ordenada y finita de operaciones.
1623: La primera calculadora mecánica fue diseñada por Wilhelm
Schickard en 1624: La primera regla deslizante fue
inventada por el matemático inglés William OughtredAlemania. Llamada "reloj calculador".
1777: Charles Stanhope (tercer earl de
Stanhope) (Charles Mahon) inventa la primera máquina lógica, el "demostrador lógico". Era un aparato de
bolsillo.
1869: La primera máquina lógica en usar el álgebra de Boole
para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el piano lógico,.
1919: los inventores estadounidenses W. H. Eccles y F. W.
Jordan desarrollan el primer circuito multivibrador o biestable (en léxico
electrónico flip-flop). Xx.
·
1936: Konrad Zuse completa la primera computadora electro-mecánica, aunque
no 100% opera1941: La computadora Z3 fue
creada por Konrad Zuse. Fue la
primera máquina programable y completamente automática.
1942: John Vincent
Atanasoff y Clifford Edward
Berry completaron una calculadora de
propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC"
("Atanasoff Berry Computertiva, la Z1.
·
1945: El primer caso de malfuncionamiento en la computadora
causado por la intrusión de una polilla al sistema fue documentado por los
diseñadores del Mark II.
·
1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
·
1947: en Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
·
·
1950: Alan Turing expone un artículo que describe lo que ahora conocemos
como la prueba de Turing. Su
publicación explora el desarrollo natural y potencial de la inteligencia y
comunicación humana y de computadoras.
b. La historia de la computación de la
segunda mitad del siglo xx.
1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado
·
1952: Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de salir de
un laberinto, considerada la primera red neural.
·
1953: IBM fabrica su primera computadora a escala industrial,
la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
·
1956: Darthmouth da una conferencia en a partir de la que
nace el concepto de inteligencia artificial.
·
1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas
más cortas en grafos como una demostración de las habilidades de la
computadora ARMAC.
·
1958: comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
·
1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel
transportable entre modelos diferentes de computadoras.
·
1960: aparece
ALGOL, el primer lenguaje de programación estructurado y
orientado a los procedimientos.
·
1960: C. Antony R.
Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
·
1962: en el MIT, Ivan Sutherland desarrolla los primeros programas gráficos que dejan que
el usuario dibuje interactivamente en una pantalla.
·
1962: en el
MIT, Hart y Levin inventan para Lisp el primer compilador autocontenido, es decir, capaz de
compilar su propio código fuente.
·
1962: un
equipo de la Universidad de Mánchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como
interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del
mundo en ese año.
·
1962: el
estudiante del MIT Steve Russell escribe el
primer juego de computadora, llamado Spacewar!.
Caracteres
ASCII imprimibles, del 32 al 126.
·
1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras. Las placas de circuito impreso con múltiples componentes elementales pasan a ser
reemplazadas con placas de circuitos integrados.
·
1964: en el Dartmouth
College, John George Kemeny y Thomas Eugene Kurtz
desarrollan el lenguaje BASIC (el Dartmouth BASIC).
·
1965: en los
clásicos documentos de Dijkstra se tratan por primera vez los algoritmos de
exclusión mutua (sistemas operativos).
·
1966: la mayoría de ideas y conceptos que existían sobre redes se
aplican a la red militar ARPANET.
·
1966:
aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.
·
1967: en IBM,
David Noble
―bajo la dirección de Alan Shugart― inventa el disquete (disco flexible).
·
1969: Data
General Corporation distribuye la primera minicomputadora de 16-bit.
·
1969: en los laboratorios
Bell, Ken Thompson y Dennis Ritchie desarrollan el lenguaje de programación B.
·
1969: en los laboratorios
Bell de AT&T, un grupo de empleados de dicho laboratorio entre los
que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy― crean el sistema
operativo UNICS.
·
1970: Intel
crea la primera memoria dinámica RAM. Se le llamó
1103 y tenía una capacidad de 1024 bits (1 kbits).
·
1971: Intel presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
·
1971: Ray Tomlinson crea el primer programa para enviar correo electrónico.
Como consecuencia, la arroba se usa por primera vez con fines
informáticos.
·
1971: en el MIT, un
grupo de investigadores presentan la propuesta del primer "Protocolo para
la transmisión de archivos en Internet" (FTP).
·
1971: John Blankenbaker presenta el Kenbak-1, considerado como el primer ordenador personal de la
historia, sin un procesador, solo con puertas lógicas. Solo vende 40 unidades
en centros de enseñanza.
·
1972: Robert
Thomas Morris crea el primer virus informático, llamado Creeper. Atacó a una máquina IBM Serie 360. Con el fin de
exterminarlo se crea el virus Reaper, que
es considerado por muchos como el primer antivirus.
·
1972: en los Laboratorios
Bell, Ken Thompson y Dennis M.
Ritchie crean el lenguaje de programación C.
·
1973: La
división de investigación Xerox PARC desarrollo el primer ordenador que utilizó el concepto
de Computadora de Escritorio llamado Xerox Alto, además de ser el primer ordenador en utilizar una GUI y un
mouse.
·
1974: Se crea
el sistema Ethernet para enlazar a través de un
cable único a las computadoras de una LAN (red de área local).
·
1974: Gary Kildall crea el sistema operativo CP/M (Control Program for Microcomputer). Violando sus derechos de
autor) se desarrolla el sistema
operativo MS-DOS.
·
1975: en enero la revista Popular Electronics hace
el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
·
1977: se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
·
1978: se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).
·
1980: en IBM, un grupo de investigación desarrolla el primer
prototipo de RISC (Computadora de Instrucción Reducida).
·
1980: Laboratorios
Bell desarrolla el primer
microprocesador de 32-bit en un solo chip, llamado Bellmac-32.
·
1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en
el campo de la computación personal y definiría nuevos estándares.
·
1981 (3 de
abril): Adam Osborne lanza el Osborne-1,
primer ordenador portable (no portátil ya que no usaba baterías).
·
1982: la Asociación Internacional MIDI publica el MIDI (protocolo para comunicar computadoras con instrumentos
musicales).
·
1982: Rod Canion, Jim Harris y Bill Murto fundan Compaq (Computer Corporation), una compañía de computadoras
personales.
·
1983: ARPANET se separa de la red militar que la originó, de modo que,
ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
·
1984: IBM presenta el PC-AT, con procesador Intel 80286, bus
(informática) de expansión de 16 bits y 6 Mhz de
velocidad. Tenía hasta 512 kB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5795 dólares.
·
1984: Apple
Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica
ideada en Xerox.
·
1984: se
desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica
a los sistemas Unix.
·
1984: Leonard
Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e
infraestructuras para Internet.
·
1985: Compaq
saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador
Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más
rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
·
1986: Compaq
lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
·
1986: se
registra la primera patente base de codificación de lo que hoy conocemos como MP3 (un
método de compresión de audio).
·
1986: Compaq
pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, que
utilizaba microprocesador de 8 MHz y 10 MB de disco duro, y fue 30%
más barata que la IBM PC/AT con disco rígido.
·
1987: Compaq
introduce la primera PC basada en el nuevo microprocesador de Intel; el 80386
de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún
IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como
la era de los clones de PC.
·
1989: T. E. Anderson estudia las cuestiones sobre el rendimiento de las
hebras o hilos en sistemas operativos (threads).
·
1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
·
1991: Compaq
pone a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados
de los años noventa en vender una PC de menos de 1000 dólares
estadounidenses. Compaq se convirtió en una de los primeros fabricantes en usar
micros de AMD y Cyrix.
·
1992: Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el
nombre AXP, como reemplazo para la serie de microcomputadores VAX que
comúnmente utilizaban el sistema operativo VMS y
que luego originaría el openVMS. El procesador Alpha 21064
de 64 bits y 200MHz es declarado como el más rápido del mundo.
·
1993: un grupo de investigadores descubren que un rasgo de la
mecánica cuántica, llamado entrelazamiento,
podía utilizarse para superar las limitaciones de la teoría del cuanto aplicada a la construcción de computadoras cuánticas y a
la teleportación.
·
1993: Microsoft lanza al mercado la primera versión del sistema operativo
multiusuario de 32 bits (cliente-servidor) Windows NT.
·
1994: es
diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios
escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.
·
1995: Microsoft lanza de Windows 95, junto con su navegador web predeterminado, Windows Internet Explorer.
·
1995: la
implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java
fueron desarrollados por Sun Microsystems.
·
1997: la empresa estadounidense Nullsoft distribuye gratuitamente el reproductor multimedia Winamp.
·
1998:
Compaq adquiere Digital Equipment Corporation, la compañía líder en la anterior
generación de las computadoras durante los años setenta y principios de los
ochenta. Esta adquisición convertiría a Compaq en el segundo más grande
fabricante de computadoras, en términos de ingresos.
·
1999:
Sean Parker y Shawn Fanning
fundan Napster un
servicio p2p orientado a
compartir archivos mp3 de un usuario a otro.
c. La historia de las microcomputadoras
desde 1980 hasta la fecha actual.
d.
1980
En todo el mundo había un millón de ordenadores en uso.
Conferon desarrolló un sistema de auriculares y buscapersonas inalámbricos para reuniones que estaba diseñado para mejorar la comunicación in situ. Esto ocurrió antes del uso muy extendido de radios portátiles.
Varias empresas especializadas en sistemas de inscripción (Galaxy Information Services, CompuSystems y Registration Control Systems) ofrecieron al segmento de ferias de muestras y exposiciones un sistema informatizado básico para la generación de credenciales y el intercambio de datos de contacto (por medio de tarjetas de "crédito" plásticas en relieve). Antes de la aparición de dichas tarjetas, los expositores apuntaban a mano los números de las credenciales de los asistentes, que la empresa encargada del proceso de inscripción cotejaba luego con los datos de contacto.
Galaxy lanzó el primer sistema informatizado de inscripciones in situ. Utilizando 12 puestos de inscripción que transmitían datos vía un módem de 1.200 baudios, esta innovación eliminaba la necesidad de instalar una computadora central en el lugar de celebración.
En Brisbane (Australia), Ray Shaw de Intermedia importó componentes estadounidenses para construir un ordenador CP/M. Escribió el programa "Camputer" que condujo a la versión 1 de EVENTS, que con el tiempo se convirtió en Amlink. En el mismo se utilizó Events VI para gestionar una conferencia con 400 delegados. El programa original era una base de datos plana que generaba credenciales, listas de alojamiento, informes y cartas de confirmación. Hacía falta alrededor de una semana para preparar el software para cada conferencia nueva.
1981
El Commodore VIC-20 irrumpió en el mercado —el primer ordenador en color por menos de 300$— del que se vendió más de un millón de unidades. El monitor era un televisor, se almacenaban los datos en una cinta de casete y las aplicaciones rompedoras eran videojuegos.
IBM lanzó el primer ordenador personal.
Se lanzó MeetingPro, el primer software de base de datos para el sector de congresos y reuniones para la formación médica permanente, con cartas de confirmación personalizadas, credenciales impresas con letra grande, listas de participantes precisas y seguimiento básico del mercado.
1982
Compression Labs empezó a comercializar sistemas de videoconferencia por 250.000$, con un coste de conexión de 1.000$ por hora.
1983
Eric Orkin presentó Delphi Management Systems, el primer software completo para el sector de la hostelería, diseñado para reuniones y grupos, incluyendo funciones para marketing y catering. En 1985 se convirtió en Newmarket Software.
Events V2 (que iba camino de convertirse en Amlink) se reescribió en PL/1, con lo que se podía personalizar para cada evento en menos de un día. El software se ejecutaba en un ordenador MP/M de 24 usuarios, que a su vez estaba conectado a una fotocomponedora de Compugraphic para imprimir catálogos de abstractos, información sobre conferencias, etc.
1984
Apple volvió a lanzar el Macintosh, el primer ordenador fabricado en masa, con un ratón y una interfaz gráfica.
Galaxy utilizó un solo microordenador, fabricado por Digital Systems Corporation, para controlar 120 puestos de inscripción en ferias de muestras y exposiciones.
Events V3 (que iba camino de convertirse en Amlink) se probó en un congreso tecnológico celebrado en París. Fue la primera vez que se utilizó un paquete de software de gestión de reuniones en Europa.
1985
Microsoft lanzó Windows 1.0 que se empezó a comercializar por 100$.
Se comercializaron los CD-ROM, con capacidad para almacenar el texto de 270.000 folios en un solo disco.
El 15 de marzo de 1985, Symbolics, una empresa informática de Massachusetts, registró el primer dominio de Internet, symbolics.com.
Phoenix Solutions presentó MeetingTrak 1.0, otro de los productos pioneros de base de datos para la gestión de reuniones.
PCNametag, el primer software para generar credenciales, se estrenó en MeetingWorld de Nueva York. Con una impresora de matriz de puntos era capaz de generar 120 credenciales por hora. Los asistentes se agolparon para ver el producto.
1986
El primer virus que afectaba a los PCs de IBM fue uno del sector de arranque que se llamaba "Brain".
Eric Thomas desarrolló el primer programa de listas de mailing, denominado "LISTSERV".
Compaq comercializó el primer ordenador compatible con procesador i386.
E.J. Siwek creó y comercializó el primer software para generar planos de salas.
Judith Mathews fundó el Meeting Industry Microcomputer Users Group [grupo de usuarios de microcomputadoras perteneciente al sector de congresos y reuniones]. Durante varios años, MIMUG se reunía antes de la reunión anual de Meeting Professionals International (MPI). Las demostraciones de software marcaron el principio de la formación tecnológica en la industria de los eventos.
1987
Se creó la primera asociación enfocada en la tecnología para la industria de los eventos. La asociación, cuyo nombre del que nadie se acuerda ahora, duró alrededor de dos semanas antes de ser absorbida por MPI como el Computer Special Interest Group.
Se lanzó PowerPoint 1 (denominado originalmente "Presenter"). Sólo mostraba imágenes en blanco y negro, tenía una sola transición y solo funcionada en ordenadores Macintosh.
1988
Empezó a operar la empresa conjunta "videotexto" de IBM y Sears bajo el nombre "PRODIGY".
Los códigos de barras de identidad aparecieron como la primera generación de sistemas impresos de captación de datos de contacto para ferias de muestras y exposiciones.
Dieciséis cadenas hoteleras contribuyeron con 100.000$ para financiar una nueva empresa, The Hotel Industry Switch Co., para conectar electrónicamente las empresas de sistemas de distribución global, como Sabre, con los sistemas informatizados de reservas de los hoteles. THISCO se convirtió en Pegasus, que actualmente procesa más de 300 millones de transacciones al mes.
1989
Desde 1987 hasta 1989, el número de máquinas de fax en el mundo aumentó en más de dos veces para llegar a las 2,5 millones de unidades.
El número de ordenadores en uso en el mundo sumaba las 100 millones de unidades.
Quantum Computer Services, el sistema de tablón de noticias en Internet, se cambió de nombre para pasar a llamarse America Online (AOL). Desde 1989 hasta 1998, el número de miembros de AOL pasó de los 100.000 a los 14 millones.
PCNametag y LasersEdge desarrollaron un software para la generación de credenciales con una impresora láser.
Se lanzó McNametag, uno de los pocos programas de software diseñados específicamente para el sector de congresos y reuniones escrito para ordenadores Macintosh.
1990
Tim Berners-Lee inventó laWorld Wide Web.
1991
Las empresas informáticas comercializaban los ordenadores portátiles con anuncios en los que se veían a los usuarios con sus "máquinas de libertad" al lado de una piscina.
PlanSoft comenzó a desarrollar Ajenis, el primer intento de homogeneizar las comunicaciones relacionadas con las especificaciones de reuniones entre organizadores y hoteleros. Finalmente se lanzó el software en 1995, pero no se adoptó de forma generalizada, en parte debido a la creciente competencia de las primeras herramientas alojadas en la Web.
La School Home Office Products Association fue la primera asociación en usar tarjetas inteligentes (tarjetas de plástico con chips integrados) para la captación de datos de contacto en su ferias de muestras.
1993
A comienzos de 1993, la Web contenía 130 sitios web.
America Online y Delphi empezaron a conectar sus propios sistemas de correo electrónico a Internet, lo que marcó el comienzo de la adopción a gran escala del correo electrónico de Internet como norma mundial.
La división de ordenadores de Apple lanzó el primer PDA (asistente digital personal) que se llamaba "Newton".
Se creó MPINet, el primer grupo de discusión online para profesionales del sector de congresos y reuniones, como foro en CompuServe. El comité encargado de su puesta en marcha, integrado por 16 personas, se reunió en diciembre de 1993, y el servicio se lanzó en la Web un mes después. Antes de cerrarse en 1997, debido al auge de los foros alojados en la Web, tenía 2.600 miembros.
1994
Laurence Canter envió el primer correo electrónico que podía considerarse como spam –"Green Card Lottery 1994 May be the Last One!! Sign up now!! – lo que levantó un gran revuelo en la comunidad de Internet. Como resultado, Carter perdió su empleo y su proveedor de servicio de Internet canceló su cuenta.
Con el objetivo de hacer un seguimiento de los sitios web que les interesaban, dos estudiantes de Stanford crearon "Jerry’s Guide to the World Wide Web" [La guía de Jerry para la World Wide Web], que pronto pasó a llamarse Yahoo!
McGettigan Partners (ahora Maritz) introdujo el primer producto de software que hacía un seguimiento de los gastos y el suministro de servicios de las reuniones. Luego se convirtió en Core Discovery, que al principio sólo estaba disponible para los clientes de McGettigan. En 1998, la empresa lanzó una versión actualizada con una interfaz web para el público en general, bajo el nombre Real-Planner. En 1999, pasó a ser una empresa separada, StarCite, que comercializaba soluciones alojadas en la Web para el suministro de servicios, la gestión de delegados y el seguimiento de gastos.
Registration Control Systems y Galaxy introdujeron unas tarjetas de banda magnética para la captación de datos de contacto en ferias de muestras y exposiciones.
1995
El número de hogares estadounidenses con uno o más PCs aumentó en un 16% en 1995, para llegar a cerca de los 38 millones; 33 millones más que en 1994 y 25 millones más que en 1993.
Conferon creó una entidad separada, PlanSoft (que se conocería luego como Mpoint), el primer motor de base de datos de espacios y peticiones de propuestas para reuniones, con buscador incorporado. Se trataba de un consorcio singular compuesto por una empresa privada (PlanSoft), dos asociaciones (MPI y la Asociación Norteamericana de Ejecutivos de Asociaciones), y tres empresas hoteleras (Marriott, Sheraton y Hyatt). Plansoft.com se lanzó en Internet en 1997.
InterMedia, la feria de muestras de Reed, fue la primera en usar credenciales impresas con barras de códigos bidimensionales, lo que permitió a los expositores captar de una credencial todos los datos de contactos de clientes potenciales.
Holiday Inn lanzó el primer sitio web hotelero con un sistema de reserva y pago de habitaciones.
Aparecieron las primeras herramientas de inscripción online para reuniones; todas con código escrito a mano por programadores.
Lee Travel asumió el control de Internet World Tradeshows para gestionar alojamiento. La empresa lanzó el primer sitio web de alojamiento en 1996, que hacía un seguimiento en tiempo real de bloques de habitaciones e inventarios. De Lee Travel surgió en 1998 b-there.com, uno de los pioneros en productos de gestión de delegados, alojamiento y consolidación. Su producto empezó llamándose ERS (Event Reservation System) y fue unos de los primeros productos de alojamiento e inscripción basados en plantillas. Más tarde, StarCite compraría b-there.com.
Microsoft NetMeeting, una herramienta de colaboración alojada en la Web, se lanzó con Windows95. Esta herramienta permitía a la gente utilizar sus ordenadores para "reunirse" y trabajar juntos desde lugares remotos. Pronto le siguieron WebEx (1996), PlaceWare (1996) y otros, que también proporcionaban funciones de audio y diapositivas y permitían compartir pantallas y archivos.
1996
El Hotel Miyako de San Francisco (ahora el San Francisco Radisson) incorporó el primer sistema de petición de propuestas, desarrollado por Cardinal Communications.
El hotelero Bob Motley, junto con Brian Layton, fundaron Passkey, una de las empresas pioneras en reservas online de habitaciones de hotel. La primera reunión, con una sola sede, que se organizó con Passkey fue para 900 personas en el Hotel Sheraton de Nueva Orleans en 1998.
Cardinal Communications creó el Meeting Industry Mall, el primer portal interactivo alojado en la Web para la industria de los eventos. De ello surgió MIMlist, el primer servidor de listas para profesionales del sector de congresos y reuniones.
1997
La mayoría de las principales empresas hoteleras y asociaciones del sector de congresos y reuniones desarrolló un sitio web.
RegWeb lanzó la primera herramienta de inscripción basada en plantillas, desarrollada por Cardinal Communications. Dicha herramienta permitía a los organizadores crear, y personalizar hasta cierto punto, páginas de inscripción, sin el concurso de un diseñador web. Fue el precursor de los miles de proveedores de servicios de aplicación para la industria de los eventos que aparecerían después.
1998
Las oficinas de Google se montaron en septiembre en un garaje de Menlo Park (California) y, en diciembre del mismo año, fue reconocido como uno de los "100 principales sitios web" por PC Magazine.
ExpoCardWeb presentó una herramienta alojada en la Web que permitía a los expositores acceder a los datos de contacto de clientes potenciales.
AllMeetings.com introdujo una herramienta online gratuita para el análisis de costos generados por las reuniones.
Lee Travel lanzó la primera generación de un producto online para la gestión integral de alojamiento, inscripciones y reserva de pasajes de avión que incorporaba tarifas por zonas.
En abril de 1998 se celebró el evento Open Source Summit. Fue un evento clave que fomentó notablemente la idea del software gratuito y desarrollado públicamente (de fuente abierta). Esto ha llegado a convertirse en un modelo de desarrollo de software más rápido y barato, incluyendo los sistemas operativos Linux y Android y cientos de miles de aplicaciones móviles.
1999
Varios expertos predijeron el colapso total de los sistemas informáticos debido al efecto 2000 (la incapacidad de los ordenadores más antiguos para distinguir entre el año 1900 y el año 2000). Llegado el Año Nuevo apenas se detectaron problemas, pero por el temor generalizado se llevaron a cabo a escala global importantes actualizaciones de los sistemas informáticos del mundo empresarial.
HotDatesHotRates.com se convirtió en uno de los primeros sitios web en ofrecer "existencias sobrantes" –espacios para reuniones y habitaciones de hotel– normalmente con poca antelación y con descuento.
En septiembre de 1999 seeUthere.com lanzó uno de los primeros productos de proveedor de servicios de aplicación para la planificación de eventos (alquilando aplicaciones alojadas en la Web, frente al software instalado directamente en un ordenador), con un sistema de pago de cuotas de inscripción que funcionaba con tarjeta de crédito. Casi al mismo tiempo, Evite.com presentó un sitio web centrado en el consumidor, que luego fue comprado por Ticketmaster.
2000
En el 60% de los hogares estadounidenses había al menos un ordenador.
El gusano/virus Love Bug infectó a 2,5 millones de PCs, causando daños y perjuicios económicos en torno a los 8,7$ mil millones.
Los proveedores de servicios de aplicación, alimentados por los fondos de capital de riesgo, irrumpieron en el campo de la organización de eventos y reuniones. Algunas de estas empresas no sobrevivirían el estallido de la burbuja de los punto com en 2001.
Se celebró ExpoExchange, la primera feria de muestras virtual.
SpotMe presentó su dispositivo móvil de networking en Londres, que permitía a los asistentes visualizar las imágenes y los datos de contacto de la gente que se encontraba dentro de un radio de 10 metros. Luego se agregaron otras funciones que permitían a los usuarios obtener información sobre sesiones y listas de asistentes, así como para realizar votaciones y encuestas, entre otras. Fue el precursor de muchas de las aplicaciones móviles para eventos disponibles actualmente.
GetThere Direct Meetings introdujo la primera herramienta online de reservas para grupos. Le siguieron en 2003 otras herramientas de reserva de bloques de habitaciones, como Groople y Hotel Planner, sobre todo para reuniones pequeñas.
El Consejo para la Industria de las Convenciones implementó la iniciativa de APEX (intercambio de prácticas aceptadas), que estableció las primeras recomendaciones para el sector de congresos y reuniones.
2001
Apple presentó el iPod, que luego se convertiría en el reproductor MP3 más popular de la historia, lo que instigó a su vez cambios radicales y disruptivos en la industria de la música.
Se lanzó Wikipedia, el sitio web de referencia más grande y popular del mundo. Actualmente contiene más de 17 millones de artículos redactados de forma colaborativa por voluntarios de todo el mundo.
El uso de herramientas online colaborativas y para reuniones, tales como WebEx y PlaceWare (ahora Windows LiveMeeting) experimentó un fuerte repunte después de los ataques terroristas del 11 de septiembre en Nueva York.
El 12 de noviembre, Uthere.com y TRX ResAssist presentaron los primeros productos online para la reserva en tiempo real de pasajes de avión para grupos.
StarCite lanzó la primera herramienta bidireccional alojada en la Web para peticiones de propuestas en tiempo real para salas de reuniones y habitaciones de hotel.
Un creciente número de turistas de negocios utilizaba sitios web de viajes, como Expedia (lanzado en 1996), Travelocity (1996) y Orbitz (2001), entre otros, para buscar alojamiento hotelero barato. Las reservas "fuera del bloque" crearon problemas para los organizadores en forma de cancelaciones. Para combatir el problema, Hilton lanzó en 2004 su Programa de Identificación de Reservas para Grupos, lo que permitía a los organizadores a comparar listas de inscripciones con las reservas de hotel y, de este modo, saber a ciencia cierta quiénes de los asistentes iban a alojarse en qué hotel.
2002
Hyatt presentó E-mmediate Meetings, una herramienta online para reservas, diseñada para reuniones pequeñas. De ésta surgió E-mmediate Response, que ofrecía por primera vez una conexión bidireccional en tiempo real entre un sitio web de peticiones de propuestas (en este caso StarCite) y el sistema de reservas de un hotel.
Se desarrollaron herramientas de networking alojadas en la Web para los asistentes a las reuniones y los eventos. La primera fue Rio, desarrollada por Columbia Resource Group. Fue seguida por IntroNetworks y Smart Event de ExpoExchange. Similares a las redes sociales, estas herramientas ayudaban a los asistentes a encontrar a gente con intereses afines en las reuniones y los eventos. Fueron los precursores del sector de congresos y reuniones de Facebook y otros sitios web sociales.
Las empresas tecnológicas son las primeras en utilizar web logs móviles (MoBlogs) en el sector de congresos y reuniones.
2003
Intel incorporó el Wi-Fi (wireless internet receiving capability) en su procesador Centrino, lo que abrió la puerta a la rápida adopción de Internet inalámbrico en los años venideros.
Se desarrollaron unas normas para servicios Web, lo que hizo que fuera mucho más fácil para distintos programas online compartir datos vía APIs (interfaces de programación de aplicaciones). Esto permitía desarrollar más fácil y rápidamente bases de datos y software online.
En mayo, el volumen de SPAM de correo electrónico excedió por primera vez el de correos legítimos.
Se desarrollaron y se afinaron varios programas de gestión estratégica de reuniones (conocidos en aquel entonces como "productos de consolidación").
Intellibadge fue la primera empresa en utilizar la RFID (identificación por radiofrecuencia) para hacer un seguimiento del público en la zona de exposición o las salas de reuniones de los eventos de la IEEE.
Más de 6.000 hoteles instalaron el Wi-Fi (fidelidad inalámbrica), o acceso de alta velocidad a Internet.
APEX presentó su primer producto (el glosario online: http://glossary.conventionindustry.org/). Luego llegarían más productos (normas voluntarias) abarcando antecedentes de reuniones, perfiles web, peticiones de propuestas, alojamiento/inscripción y reuniones sostenibles.
2004
Google indexó más de ocho mil millones de páginas en la Web.
Nació Facebook (solo para estudiantes de Harvard).
El volumen de reservas online de Hilton Hotels excedió por primera vez el de sus centros de llamadas.
PlanSoft y SeeUThere, dos de los proveedores más punteros de tecnología para eventos, se fusionaron para crear OnVantage.
2005
Se estrenó YouTube, el primer sitio web para compartir videos, que desde entonces se ha convertido en uno de los sitios más populares de la Web. En 2010, YouTube utilizó más ancho de banda que toda la Web en 2000.
Las dos empresas más veteranas en el sector del desarrollo de software para reuniones (Peopleware y Amlink) se fusionaron bajo la marca Amlink.
2006
Se lanzó Twitter, el sitio de microblogs con un máximo de 140 caracteres por mensaje.
En mayo, iTunes celebró la descarga del milmillonésimo archivo.
La industria de los eventos empezó a utilizar la tecnología Web 2.0 (que luego se llamaría "medios sociales"), incluyendo blogs, blogs de vídeos y wikis (sitios web interactivos).
Se fusionaron los dos principales proveedores de tecnología para reuniones, OnVantage (el resultado de la fusión entre PlanSoft y SeeUThere) y StarCite (el resultado de la fusión entre este último, b-There y RegWeb).
Los proveedores de tecnología de telefonía móvil, como LogOn, desarrollaron productos para reuniones, incluyendo una variedad de herramientas como directorios de productos, funciones de networking, agendas y sistemas interactivos de votación que funcionaban vía teléfonos móviles normales.
2007
Con el lanzamiento del iPhone en junio, Apple revolucionó el sector de la telefonía móvil. En los próximos cuatro años y medio se vendieron más de 74 millones de unidades.
Google lanzó GoogleDocs, con hojas de cálculo y procesadores de textos gratuitos alojados en la Web.
La Conferencia South by Southwest (SXSW), celebrada en Austin, Texas, fue la punta de inflexión de la popularidad de Twitter, cuyo volumen de "tuits" aumentó de 20.000 a 60.000 al día (en 2011, se alcanzaron los 200 millones de "tuits" al día).
2008
Amlink se fusionó con Certain Software el 1 de abril.
Active Networks adquirió dos de las principales empresas de inscripción online, RegOnline y WindgateWeb.
2009
La televisión digital se convirtió en el estándar de emisión en los EE.UU. y en otras partes del mundo, abriendo así la puerta a servicios de televisión alojados en la Web.
Seasite.com lanzó la primera herramienta alojada en la Web de peticiones de propuestas, diseñada para ayudar a los profesionales del sector a encontrar a proveedores de cruceros para el sector de congresos y reuniones.
2010
Apple presentó el iPad, otra revolución del ordenador portátil tipo "tableta".
Había 4,7 mil millones de abonados a un servicio de telefonía móvil (dos de cada tres personas en el planeta). Había más gente con un teléfono móvil que personas con acceso a agua corriente o a un cepillo de dientes.
Skype desarrolló las videoconferencias de alta definición. Esto permitía a los organizadores acceso a una señal de vídeo de calidad y gratuita para el vídeo streaming de sus eventos.
Hubo un gran auge de aplicaciones móviles diseñadas específicamente para eventos y ferias, que coincidió con la aparición de cientos de empresas nuevas que proporcionaban este tipo de servicios.
2011
En octubre, Amazon lanzó la tablet Kindle Fire/eReader de la que logró vender más de 25 millones de unidades antes de finales de año.
Había más de 600.000 de aplicaciones para el iPhone/iPad y más de 400.000 para Android.
Se descargaban diariamente más de 5,6 millones de aplicaciones para el iPhone.
Había más de 800 millones de usuarios de Facebook (más de una de cada 10 personas en el planeta).
Se desataron grandes revoluciones en Oriente Medio gracias a los teléfonos móviles y los medios sociales.
Durante las vacaciones de Navidad se descargaron 1,2 mil millones de aplicaciones.
La encuesta FutureWatch 2011, entre otras, indicó que más del 80% de los profesionales del sector de congresos y reuniones utilizaba un teléfono inteligente u otro dispositivo móvil en su trabajo. Sin embrago, un porcentaje de organizadores relativamente bajo (el 9%) había utilizado aplicaciones móviles para sus propias reuniones.
Se celebró la primera "cata de vinos virtual" en Camp Europe, utilizando Google Hangouts (un producto gratuito para realizar videoconferencias desde múltiples lugares). A los asistentes en el lugar principal en Londres, y a los que se encontraban en Polonia y Suecia, se les proporcionó el vino a catar. Por medio de esta herramienta gratuita para video conferencias, los asistentes en todos los lugares escuchaban/veían al anfitrión describir el vino, mientras inspeccionaban, olían y cataban cada vino. Los asistentes utilizaron los cinco sentidos.
2012
Active Networks compró StarCite. Las fusiones anteriores en las que estuvieron implicadas estas dos empresas incluyeron algunos de los principales pioneros de la tecnología para el sector de congresos y reuniones –RegWeb, b-there, seeUthere, PlanSoft, OnVantage, RegOnline y WingateWeb–, lo que constituyó otro paso en la consolidación de los líderes en el sector.
En todo el mundo había un millón de ordenadores en uso.
Conferon desarrolló un sistema de auriculares y buscapersonas inalámbricos para reuniones que estaba diseñado para mejorar la comunicación in situ. Esto ocurrió antes del uso muy extendido de radios portátiles.
Varias empresas especializadas en sistemas de inscripción (Galaxy Information Services, CompuSystems y Registration Control Systems) ofrecieron al segmento de ferias de muestras y exposiciones un sistema informatizado básico para la generación de credenciales y el intercambio de datos de contacto (por medio de tarjetas de "crédito" plásticas en relieve). Antes de la aparición de dichas tarjetas, los expositores apuntaban a mano los números de las credenciales de los asistentes, que la empresa encargada del proceso de inscripción cotejaba luego con los datos de contacto.
Galaxy lanzó el primer sistema informatizado de inscripciones in situ. Utilizando 12 puestos de inscripción que transmitían datos vía un módem de 1.200 baudios, esta innovación eliminaba la necesidad de instalar una computadora central en el lugar de celebración.
En Brisbane (Australia), Ray Shaw de Intermedia importó componentes estadounidenses para construir un ordenador CP/M. Escribió el programa "Camputer" que condujo a la versión 1 de EVENTS, que con el tiempo se convirtió en Amlink. En el mismo se utilizó Events VI para gestionar una conferencia con 400 delegados. El programa original era una base de datos plana que generaba credenciales, listas de alojamiento, informes y cartas de confirmación. Hacía falta alrededor de una semana para preparar el software para cada conferencia nueva.
1981
El Commodore VIC-20 irrumpió en el mercado —el primer ordenador en color por menos de 300$— del que se vendió más de un millón de unidades. El monitor era un televisor, se almacenaban los datos en una cinta de casete y las aplicaciones rompedoras eran videojuegos.
IBM lanzó el primer ordenador personal.
Se lanzó MeetingPro, el primer software de base de datos para el sector de congresos y reuniones para la formación médica permanente, con cartas de confirmación personalizadas, credenciales impresas con letra grande, listas de participantes precisas y seguimiento básico del mercado.
1982
Compression Labs empezó a comercializar sistemas de videoconferencia por 250.000$, con un coste de conexión de 1.000$ por hora.
1983
Eric Orkin presentó Delphi Management Systems, el primer software completo para el sector de la hostelería, diseñado para reuniones y grupos, incluyendo funciones para marketing y catering. En 1985 se convirtió en Newmarket Software.
Events V2 (que iba camino de convertirse en Amlink) se reescribió en PL/1, con lo que se podía personalizar para cada evento en menos de un día. El software se ejecutaba en un ordenador MP/M de 24 usuarios, que a su vez estaba conectado a una fotocomponedora de Compugraphic para imprimir catálogos de abstractos, información sobre conferencias, etc.
1984
Apple volvió a lanzar el Macintosh, el primer ordenador fabricado en masa, con un ratón y una interfaz gráfica.
Galaxy utilizó un solo microordenador, fabricado por Digital Systems Corporation, para controlar 120 puestos de inscripción en ferias de muestras y exposiciones.
Events V3 (que iba camino de convertirse en Amlink) se probó en un congreso tecnológico celebrado en París. Fue la primera vez que se utilizó un paquete de software de gestión de reuniones en Europa.
1985
Microsoft lanzó Windows 1.0 que se empezó a comercializar por 100$.
Se comercializaron los CD-ROM, con capacidad para almacenar el texto de 270.000 folios en un solo disco.
El 15 de marzo de 1985, Symbolics, una empresa informática de Massachusetts, registró el primer dominio de Internet, symbolics.com.
Phoenix Solutions presentó MeetingTrak 1.0, otro de los productos pioneros de base de datos para la gestión de reuniones.
PCNametag, el primer software para generar credenciales, se estrenó en MeetingWorld de Nueva York. Con una impresora de matriz de puntos era capaz de generar 120 credenciales por hora. Los asistentes se agolparon para ver el producto.
1986
El primer virus que afectaba a los PCs de IBM fue uno del sector de arranque que se llamaba "Brain".
Eric Thomas desarrolló el primer programa de listas de mailing, denominado "LISTSERV".
Compaq comercializó el primer ordenador compatible con procesador i386.
E.J. Siwek creó y comercializó el primer software para generar planos de salas.
Judith Mathews fundó el Meeting Industry Microcomputer Users Group [grupo de usuarios de microcomputadoras perteneciente al sector de congresos y reuniones]. Durante varios años, MIMUG se reunía antes de la reunión anual de Meeting Professionals International (MPI). Las demostraciones de software marcaron el principio de la formación tecnológica en la industria de los eventos.
1987
Se creó la primera asociación enfocada en la tecnología para la industria de los eventos. La asociación, cuyo nombre del que nadie se acuerda ahora, duró alrededor de dos semanas antes de ser absorbida por MPI como el Computer Special Interest Group.
Se lanzó PowerPoint 1 (denominado originalmente "Presenter"). Sólo mostraba imágenes en blanco y negro, tenía una sola transición y solo funcionada en ordenadores Macintosh.
1988
Empezó a operar la empresa conjunta "videotexto" de IBM y Sears bajo el nombre "PRODIGY".
Los códigos de barras de identidad aparecieron como la primera generación de sistemas impresos de captación de datos de contacto para ferias de muestras y exposiciones.
Dieciséis cadenas hoteleras contribuyeron con 100.000$ para financiar una nueva empresa, The Hotel Industry Switch Co., para conectar electrónicamente las empresas de sistemas de distribución global, como Sabre, con los sistemas informatizados de reservas de los hoteles. THISCO se convirtió en Pegasus, que actualmente procesa más de 300 millones de transacciones al mes.
1989
Desde 1987 hasta 1989, el número de máquinas de fax en el mundo aumentó en más de dos veces para llegar a las 2,5 millones de unidades.
El número de ordenadores en uso en el mundo sumaba las 100 millones de unidades.
Quantum Computer Services, el sistema de tablón de noticias en Internet, se cambió de nombre para pasar a llamarse America Online (AOL). Desde 1989 hasta 1998, el número de miembros de AOL pasó de los 100.000 a los 14 millones.
PCNametag y LasersEdge desarrollaron un software para la generación de credenciales con una impresora láser.
Se lanzó McNametag, uno de los pocos programas de software diseñados específicamente para el sector de congresos y reuniones escrito para ordenadores Macintosh.
1990
Tim Berners-Lee inventó laWorld Wide Web.
1991
Las empresas informáticas comercializaban los ordenadores portátiles con anuncios en los que se veían a los usuarios con sus "máquinas de libertad" al lado de una piscina.
PlanSoft comenzó a desarrollar Ajenis, el primer intento de homogeneizar las comunicaciones relacionadas con las especificaciones de reuniones entre organizadores y hoteleros. Finalmente se lanzó el software en 1995, pero no se adoptó de forma generalizada, en parte debido a la creciente competencia de las primeras herramientas alojadas en la Web.
La School Home Office Products Association fue la primera asociación en usar tarjetas inteligentes (tarjetas de plástico con chips integrados) para la captación de datos de contacto en su ferias de muestras.
1993
A comienzos de 1993, la Web contenía 130 sitios web.
America Online y Delphi empezaron a conectar sus propios sistemas de correo electrónico a Internet, lo que marcó el comienzo de la adopción a gran escala del correo electrónico de Internet como norma mundial.
La división de ordenadores de Apple lanzó el primer PDA (asistente digital personal) que se llamaba "Newton".
Se creó MPINet, el primer grupo de discusión online para profesionales del sector de congresos y reuniones, como foro en CompuServe. El comité encargado de su puesta en marcha, integrado por 16 personas, se reunió en diciembre de 1993, y el servicio se lanzó en la Web un mes después. Antes de cerrarse en 1997, debido al auge de los foros alojados en la Web, tenía 2.600 miembros.
1994
Laurence Canter envió el primer correo electrónico que podía considerarse como spam –"Green Card Lottery 1994 May be the Last One!! Sign up now!! – lo que levantó un gran revuelo en la comunidad de Internet. Como resultado, Carter perdió su empleo y su proveedor de servicio de Internet canceló su cuenta.
Con el objetivo de hacer un seguimiento de los sitios web que les interesaban, dos estudiantes de Stanford crearon "Jerry’s Guide to the World Wide Web" [La guía de Jerry para la World Wide Web], que pronto pasó a llamarse Yahoo!
McGettigan Partners (ahora Maritz) introdujo el primer producto de software que hacía un seguimiento de los gastos y el suministro de servicios de las reuniones. Luego se convirtió en Core Discovery, que al principio sólo estaba disponible para los clientes de McGettigan. En 1998, la empresa lanzó una versión actualizada con una interfaz web para el público en general, bajo el nombre Real-Planner. En 1999, pasó a ser una empresa separada, StarCite, que comercializaba soluciones alojadas en la Web para el suministro de servicios, la gestión de delegados y el seguimiento de gastos.
Registration Control Systems y Galaxy introdujeron unas tarjetas de banda magnética para la captación de datos de contacto en ferias de muestras y exposiciones.
1995
El número de hogares estadounidenses con uno o más PCs aumentó en un 16% en 1995, para llegar a cerca de los 38 millones; 33 millones más que en 1994 y 25 millones más que en 1993.
Conferon creó una entidad separada, PlanSoft (que se conocería luego como Mpoint), el primer motor de base de datos de espacios y peticiones de propuestas para reuniones, con buscador incorporado. Se trataba de un consorcio singular compuesto por una empresa privada (PlanSoft), dos asociaciones (MPI y la Asociación Norteamericana de Ejecutivos de Asociaciones), y tres empresas hoteleras (Marriott, Sheraton y Hyatt). Plansoft.com se lanzó en Internet en 1997.
InterMedia, la feria de muestras de Reed, fue la primera en usar credenciales impresas con barras de códigos bidimensionales, lo que permitió a los expositores captar de una credencial todos los datos de contactos de clientes potenciales.
Holiday Inn lanzó el primer sitio web hotelero con un sistema de reserva y pago de habitaciones.
Aparecieron las primeras herramientas de inscripción online para reuniones; todas con código escrito a mano por programadores.
Lee Travel asumió el control de Internet World Tradeshows para gestionar alojamiento. La empresa lanzó el primer sitio web de alojamiento en 1996, que hacía un seguimiento en tiempo real de bloques de habitaciones e inventarios. De Lee Travel surgió en 1998 b-there.com, uno de los pioneros en productos de gestión de delegados, alojamiento y consolidación. Su producto empezó llamándose ERS (Event Reservation System) y fue unos de los primeros productos de alojamiento e inscripción basados en plantillas. Más tarde, StarCite compraría b-there.com.
Microsoft NetMeeting, una herramienta de colaboración alojada en la Web, se lanzó con Windows95. Esta herramienta permitía a la gente utilizar sus ordenadores para "reunirse" y trabajar juntos desde lugares remotos. Pronto le siguieron WebEx (1996), PlaceWare (1996) y otros, que también proporcionaban funciones de audio y diapositivas y permitían compartir pantallas y archivos.
1996
El Hotel Miyako de San Francisco (ahora el San Francisco Radisson) incorporó el primer sistema de petición de propuestas, desarrollado por Cardinal Communications.
El hotelero Bob Motley, junto con Brian Layton, fundaron Passkey, una de las empresas pioneras en reservas online de habitaciones de hotel. La primera reunión, con una sola sede, que se organizó con Passkey fue para 900 personas en el Hotel Sheraton de Nueva Orleans en 1998.
Cardinal Communications creó el Meeting Industry Mall, el primer portal interactivo alojado en la Web para la industria de los eventos. De ello surgió MIMlist, el primer servidor de listas para profesionales del sector de congresos y reuniones.
1997
La mayoría de las principales empresas hoteleras y asociaciones del sector de congresos y reuniones desarrolló un sitio web.
RegWeb lanzó la primera herramienta de inscripción basada en plantillas, desarrollada por Cardinal Communications. Dicha herramienta permitía a los organizadores crear, y personalizar hasta cierto punto, páginas de inscripción, sin el concurso de un diseñador web. Fue el precursor de los miles de proveedores de servicios de aplicación para la industria de los eventos que aparecerían después.
1998
Las oficinas de Google se montaron en septiembre en un garaje de Menlo Park (California) y, en diciembre del mismo año, fue reconocido como uno de los "100 principales sitios web" por PC Magazine.
ExpoCardWeb presentó una herramienta alojada en la Web que permitía a los expositores acceder a los datos de contacto de clientes potenciales.
AllMeetings.com introdujo una herramienta online gratuita para el análisis de costos generados por las reuniones.
Lee Travel lanzó la primera generación de un producto online para la gestión integral de alojamiento, inscripciones y reserva de pasajes de avión que incorporaba tarifas por zonas.
En abril de 1998 se celebró el evento Open Source Summit. Fue un evento clave que fomentó notablemente la idea del software gratuito y desarrollado públicamente (de fuente abierta). Esto ha llegado a convertirse en un modelo de desarrollo de software más rápido y barato, incluyendo los sistemas operativos Linux y Android y cientos de miles de aplicaciones móviles.
1999
Varios expertos predijeron el colapso total de los sistemas informáticos debido al efecto 2000 (la incapacidad de los ordenadores más antiguos para distinguir entre el año 1900 y el año 2000). Llegado el Año Nuevo apenas se detectaron problemas, pero por el temor generalizado se llevaron a cabo a escala global importantes actualizaciones de los sistemas informáticos del mundo empresarial.
HotDatesHotRates.com se convirtió en uno de los primeros sitios web en ofrecer "existencias sobrantes" –espacios para reuniones y habitaciones de hotel– normalmente con poca antelación y con descuento.
En septiembre de 1999 seeUthere.com lanzó uno de los primeros productos de proveedor de servicios de aplicación para la planificación de eventos (alquilando aplicaciones alojadas en la Web, frente al software instalado directamente en un ordenador), con un sistema de pago de cuotas de inscripción que funcionaba con tarjeta de crédito. Casi al mismo tiempo, Evite.com presentó un sitio web centrado en el consumidor, que luego fue comprado por Ticketmaster.
2000
En el 60% de los hogares estadounidenses había al menos un ordenador.
El gusano/virus Love Bug infectó a 2,5 millones de PCs, causando daños y perjuicios económicos en torno a los 8,7$ mil millones.
Los proveedores de servicios de aplicación, alimentados por los fondos de capital de riesgo, irrumpieron en el campo de la organización de eventos y reuniones. Algunas de estas empresas no sobrevivirían el estallido de la burbuja de los punto com en 2001.
Se celebró ExpoExchange, la primera feria de muestras virtual.
SpotMe presentó su dispositivo móvil de networking en Londres, que permitía a los asistentes visualizar las imágenes y los datos de contacto de la gente que se encontraba dentro de un radio de 10 metros. Luego se agregaron otras funciones que permitían a los usuarios obtener información sobre sesiones y listas de asistentes, así como para realizar votaciones y encuestas, entre otras. Fue el precursor de muchas de las aplicaciones móviles para eventos disponibles actualmente.
GetThere Direct Meetings introdujo la primera herramienta online de reservas para grupos. Le siguieron en 2003 otras herramientas de reserva de bloques de habitaciones, como Groople y Hotel Planner, sobre todo para reuniones pequeñas.
El Consejo para la Industria de las Convenciones implementó la iniciativa de APEX (intercambio de prácticas aceptadas), que estableció las primeras recomendaciones para el sector de congresos y reuniones.
2001
Apple presentó el iPod, que luego se convertiría en el reproductor MP3 más popular de la historia, lo que instigó a su vez cambios radicales y disruptivos en la industria de la música.
Se lanzó Wikipedia, el sitio web de referencia más grande y popular del mundo. Actualmente contiene más de 17 millones de artículos redactados de forma colaborativa por voluntarios de todo el mundo.
El uso de herramientas online colaborativas y para reuniones, tales como WebEx y PlaceWare (ahora Windows LiveMeeting) experimentó un fuerte repunte después de los ataques terroristas del 11 de septiembre en Nueva York.
El 12 de noviembre, Uthere.com y TRX ResAssist presentaron los primeros productos online para la reserva en tiempo real de pasajes de avión para grupos.
StarCite lanzó la primera herramienta bidireccional alojada en la Web para peticiones de propuestas en tiempo real para salas de reuniones y habitaciones de hotel.
Un creciente número de turistas de negocios utilizaba sitios web de viajes, como Expedia (lanzado en 1996), Travelocity (1996) y Orbitz (2001), entre otros, para buscar alojamiento hotelero barato. Las reservas "fuera del bloque" crearon problemas para los organizadores en forma de cancelaciones. Para combatir el problema, Hilton lanzó en 2004 su Programa de Identificación de Reservas para Grupos, lo que permitía a los organizadores a comparar listas de inscripciones con las reservas de hotel y, de este modo, saber a ciencia cierta quiénes de los asistentes iban a alojarse en qué hotel.
2002
Hyatt presentó E-mmediate Meetings, una herramienta online para reservas, diseñada para reuniones pequeñas. De ésta surgió E-mmediate Response, que ofrecía por primera vez una conexión bidireccional en tiempo real entre un sitio web de peticiones de propuestas (en este caso StarCite) y el sistema de reservas de un hotel.
Se desarrollaron herramientas de networking alojadas en la Web para los asistentes a las reuniones y los eventos. La primera fue Rio, desarrollada por Columbia Resource Group. Fue seguida por IntroNetworks y Smart Event de ExpoExchange. Similares a las redes sociales, estas herramientas ayudaban a los asistentes a encontrar a gente con intereses afines en las reuniones y los eventos. Fueron los precursores del sector de congresos y reuniones de Facebook y otros sitios web sociales.
Las empresas tecnológicas son las primeras en utilizar web logs móviles (MoBlogs) en el sector de congresos y reuniones.
2003
Intel incorporó el Wi-Fi (wireless internet receiving capability) en su procesador Centrino, lo que abrió la puerta a la rápida adopción de Internet inalámbrico en los años venideros.
Se desarrollaron unas normas para servicios Web, lo que hizo que fuera mucho más fácil para distintos programas online compartir datos vía APIs (interfaces de programación de aplicaciones). Esto permitía desarrollar más fácil y rápidamente bases de datos y software online.
En mayo, el volumen de SPAM de correo electrónico excedió por primera vez el de correos legítimos.
Se desarrollaron y se afinaron varios programas de gestión estratégica de reuniones (conocidos en aquel entonces como "productos de consolidación").
Intellibadge fue la primera empresa en utilizar la RFID (identificación por radiofrecuencia) para hacer un seguimiento del público en la zona de exposición o las salas de reuniones de los eventos de la IEEE.
Más de 6.000 hoteles instalaron el Wi-Fi (fidelidad inalámbrica), o acceso de alta velocidad a Internet.
APEX presentó su primer producto (el glosario online: http://glossary.conventionindustry.org/). Luego llegarían más productos (normas voluntarias) abarcando antecedentes de reuniones, perfiles web, peticiones de propuestas, alojamiento/inscripción y reuniones sostenibles.
2004
Google indexó más de ocho mil millones de páginas en la Web.
Nació Facebook (solo para estudiantes de Harvard).
El volumen de reservas online de Hilton Hotels excedió por primera vez el de sus centros de llamadas.
PlanSoft y SeeUThere, dos de los proveedores más punteros de tecnología para eventos, se fusionaron para crear OnVantage.
2005
Se estrenó YouTube, el primer sitio web para compartir videos, que desde entonces se ha convertido en uno de los sitios más populares de la Web. En 2010, YouTube utilizó más ancho de banda que toda la Web en 2000.
Las dos empresas más veteranas en el sector del desarrollo de software para reuniones (Peopleware y Amlink) se fusionaron bajo la marca Amlink.
2006
Se lanzó Twitter, el sitio de microblogs con un máximo de 140 caracteres por mensaje.
En mayo, iTunes celebró la descarga del milmillonésimo archivo.
La industria de los eventos empezó a utilizar la tecnología Web 2.0 (que luego se llamaría "medios sociales"), incluyendo blogs, blogs de vídeos y wikis (sitios web interactivos).
Se fusionaron los dos principales proveedores de tecnología para reuniones, OnVantage (el resultado de la fusión entre PlanSoft y SeeUThere) y StarCite (el resultado de la fusión entre este último, b-There y RegWeb).
Los proveedores de tecnología de telefonía móvil, como LogOn, desarrollaron productos para reuniones, incluyendo una variedad de herramientas como directorios de productos, funciones de networking, agendas y sistemas interactivos de votación que funcionaban vía teléfonos móviles normales.
2007
Con el lanzamiento del iPhone en junio, Apple revolucionó el sector de la telefonía móvil. En los próximos cuatro años y medio se vendieron más de 74 millones de unidades.
Google lanzó GoogleDocs, con hojas de cálculo y procesadores de textos gratuitos alojados en la Web.
La Conferencia South by Southwest (SXSW), celebrada en Austin, Texas, fue la punta de inflexión de la popularidad de Twitter, cuyo volumen de "tuits" aumentó de 20.000 a 60.000 al día (en 2011, se alcanzaron los 200 millones de "tuits" al día).
2008
Amlink se fusionó con Certain Software el 1 de abril.
Active Networks adquirió dos de las principales empresas de inscripción online, RegOnline y WindgateWeb.
2009
La televisión digital se convirtió en el estándar de emisión en los EE.UU. y en otras partes del mundo, abriendo así la puerta a servicios de televisión alojados en la Web.
Seasite.com lanzó la primera herramienta alojada en la Web de peticiones de propuestas, diseñada para ayudar a los profesionales del sector a encontrar a proveedores de cruceros para el sector de congresos y reuniones.
2010
Apple presentó el iPad, otra revolución del ordenador portátil tipo "tableta".
Había 4,7 mil millones de abonados a un servicio de telefonía móvil (dos de cada tres personas en el planeta). Había más gente con un teléfono móvil que personas con acceso a agua corriente o a un cepillo de dientes.
Skype desarrolló las videoconferencias de alta definición. Esto permitía a los organizadores acceso a una señal de vídeo de calidad y gratuita para el vídeo streaming de sus eventos.
Hubo un gran auge de aplicaciones móviles diseñadas específicamente para eventos y ferias, que coincidió con la aparición de cientos de empresas nuevas que proporcionaban este tipo de servicios.
2011
En octubre, Amazon lanzó la tablet Kindle Fire/eReader de la que logró vender más de 25 millones de unidades antes de finales de año.
Había más de 600.000 de aplicaciones para el iPhone/iPad y más de 400.000 para Android.
Se descargaban diariamente más de 5,6 millones de aplicaciones para el iPhone.
Había más de 800 millones de usuarios de Facebook (más de una de cada 10 personas en el planeta).
Se desataron grandes revoluciones en Oriente Medio gracias a los teléfonos móviles y los medios sociales.
Durante las vacaciones de Navidad se descargaron 1,2 mil millones de aplicaciones.
La encuesta FutureWatch 2011, entre otras, indicó que más del 80% de los profesionales del sector de congresos y reuniones utilizaba un teléfono inteligente u otro dispositivo móvil en su trabajo. Sin embrago, un porcentaje de organizadores relativamente bajo (el 9%) había utilizado aplicaciones móviles para sus propias reuniones.
Se celebró la primera "cata de vinos virtual" en Camp Europe, utilizando Google Hangouts (un producto gratuito para realizar videoconferencias desde múltiples lugares). A los asistentes en el lugar principal en Londres, y a los que se encontraban en Polonia y Suecia, se les proporcionó el vino a catar. Por medio de esta herramienta gratuita para video conferencias, los asistentes en todos los lugares escuchaban/veían al anfitrión describir el vino, mientras inspeccionaban, olían y cataban cada vino. Los asistentes utilizaron los cinco sentidos.
2012
Active Networks compró StarCite. Las fusiones anteriores en las que estuvieron implicadas estas dos empresas incluyeron algunos de los principales pioneros de la tecnología para el sector de congresos y reuniones –RegWeb, b-there, seeUthere, PlanSoft, OnVantage, RegOnline y WingateWeb–, lo que constituyó otro paso en la consolidación de los líderes en el sector.
e. Tendencias actuales y futuras de la
computación.
A continuación se enlistan
las principales areas que se desarrollan actualmente dentro del campo de la computación.
Los nombres de las categorías corresponden a los más usados en el medio sin con I. Computación aplicada:
Son actividades en las que
se aprovechan de manera práctica los elementos teóricos de la computación y
otras disciplinas.
a)
Procesamiento de señales
o Procesamiento de imágenes: son técnicas para la manipulación
numérica de imágenes (fotografías, imágenes de satélite, radiografías, tomografías,
etc.). Entra las principales aplicaciones destacan restauración, "ecualización"
de colores, efectos especiales, "doping", filtrado, suavizado y
reconocimiento de patrones.
o Procesamiento de señales: son
técnicas para la manipulación numérica de señales (sonido, señales sísmicas, de
radar, de sonar, etc.). Entre las principales aplicaciones destacan análisis
del espectro de frecuencias, filtrado, compresión de datos, efectos especiales
y síntesis de señales.
b)
Bases de Datos: son
técnicas para el manejo eficiente de datos (actualización, búsquedas, emisión
de reportes, etc.). Se aplican en nominas, inventarios, control escolar, en el
proyecto Genoma, en archivos policiacos y en la Supe carretera de la Información.
c)
Redes de Computadoras: es la aplicación de la tecnología
(hardware y software) para la interconexión de computadoras y compartir datos y
recursos.
d)
Inteligencia artificial: son programas para resolver
problemas que usualmente requieren de inteligencia.
o Sistemas expertos: es
software que obtiene conclusiones al aplicar reglas de inferencia lógica a información
concentrada en una base de datos (conocimientos recabados de un experto
humano). Se aplican en sistemas financieros, de crédito, de análisis de datos científicos,
etc.
o Lógica difusa: son
algoritmos que aplican los principios de la lógica difusa (lógica de estados
intermedios entre cierto y falso) para resolver problemas. Se usa
principalmente en aplicaciones de control.
o Planeación: son
técnicas para la elaboración de planes de acción y su ajuste automático durante
la ejecución.
o Representación y "comprensión" del
conocimiento: es
el desarrollo de esquemas apropiados para trasladar conocimientos en objetos manipulables
y comprensibles por la computadora.
o Heurística: es
la resolución de problemas mediante la exploración de todos los posibles
caminos hasta encontrar aquellos que conduzcan a la solución.
o Aprendizaje automático: son métodos por los cuales
un sistema reajusta sus parámetros para mejorar sus actividades.
o Reconocimiento de patrones: es la identificación de
los elementos que aparecen en un marco de referencia (una fotógrafa, y una señal,
etc.).
o Procesamiento de lenguaje natural: es la adecuada interpretación
del lenguaje utilizado de manera corriente por las personas.
e)
Simulación: es
la solución numérica del modelo matemático de un fenómeno para observar su
comportamiento. La simulación puede ser didáctica o científica. Entre las
principales aéreas que recurren a la simulación estan la Física, la Astronomía,
la Biología o la industria.
f)
Biocomputacion: se han aprupado en esta categoría
todas aquellas técnicas que tienen un origen inspirado en la Biología.
o Redes neuronales: son
algoritmos numéricos que simulan el comportamiento de redes de nodos adaptables
que, mediante un entrenamiento adecuado, pueden resolver problemas sin requerir
de un procedimiento explicito para solucionarlos. Se ocupan en clasificación y compresión
de datos, reconocimiento de patrones, etc.
o Algoritmos genéticos: son algoritmos de que
aplican el concepto biológico de selección natural para elegir la mejor solución
de un conjunto de soluciones posibles. Se aplican en problemas de optimización.
o Autómatas celulares: es la simulación de un
mundo bidimensional que contiene una distribución de células cuya configuración
cambia en cada instante siguiendo reglas que se aplican al vecindario de cada célula.
Se utilizan en problemas de interacción celula-celula, modelos de color de piel
en animales, aspectos de la generacion de formas, etc.
o Vida artificial: son
tecnicas para simular "entes" que viven en la computadora y de los
que solamente se definen las reglas minimas de comportamiento (codigo genetico).
o Evolución artificial: son
técnicas que aplican los conceptos de evolución y selección natural para
definir un "ser" primitivo que a través de reproducción y mutación ,
se convierte en el más apto para resolver alguna tarea.
g)
Computación grafica (infografía o computación visual).
o Traficación: son
algoritmos para el despliegue grafico de datos.
o Visualización: son
técnicas para la representación visual de los resultados de simulaciones
(normalmente en tercera dimensión).
o Realidad virtual: es
la estimulación adecuada de los sentidos humanos para provocar la percepción de
un ambiente inexistente; implica interacción con el usuario y requiere
complejos elementos de simulación, visualización e incluso inteligencia
artificial. Se utiliza como diversión, en mandos de tele presencia, para el
entrenamiento de pilotos y en el estudio de objetos microscópicos.
o Diseño: son
técnicas para facilitar la elaboración de planos, prototipos o documentos. Por
ejemplo, hay diseño arquitectónico, industrial, editorial o artIsatico.
o Interfaces: es
la investigación y desarrollo de programas o dispositivos para mejorar la interacción
entre hombre y maquina.
h)
Applications interdisciplinary.
o Física computacional: es la aplicación o de la
computadora para el estudio, resolución de problemas, simulación y enseñanza de
los fenómenos físicos.
o Música computacional: es la aplicación de la
computadora para el análisis, procesamiento y síntesis de sonidos y estructuras
musicales.
o Matemáticas computacionales: es la aplicación de la
computadora para el estudio, resolución de problemas, simulación y enseñanza de
problemas matemáticos.
o Bioinformatica: es
la aplicacion de la computadora en la investigación y simulación en ciencias biológicas.
o Geometría computacional: son
algoritmos para la solución de problemas geométricos.
o Multimedia: es
el uso del equipo de cómputo para integrar audio, video, texto y fotografía
para una mejor comunicación de ideas.
o Tutoriales: es
el desarrollo de software para apoyar la enseñanza de ciertas disciplinas.
II:
Metodología de la computación:
Es el estudio y desarrollo
de técnicas y métodos que conviene seguir al desarrollar aplicaciones de computación.
a)
Estilos de programación
o Procederla: tipo
de programación que requiere la definición precisa de cada paso para la resolución
de un problema. Lenguajes de este tipo son Pascal, C, BASIC, ensamblador
Fortran y COBOL.
o Declarativa (y lógica): tipo de programación que
requiere la declaración de premisas para que el lenguaje aplique las leyes de
la lógica matemática y obtenga las conclusiones que resuelven un problema.
Lenguajes de este tipo son Prologa, Parlo, Escher y Gadel.
o Funcional: tipo
de programación que se basa en la composición de funciones y el uso de listas
como estructura de datos básica. Por ejemplo, el lenguaje Lisp.
o Orientada a objetos: es
un método de programación que se basa en determinar los objetos que intervienen
en un sistema y el comportamiento e interacción entre ellos. Lenguajes de este
tipo son Smalltalk, C++, Actor, Eifel, Simula.
b)
Ingeniero/a de software: es
la aplicación de técnicas de ingeniería en la sistematización y organización de
la producción de software a gran escala.
c)
Análisis y diseño de sistemas: son métodos para el estudio y planeación
de sistemas de información óptimos.
d)
Computación simbólica: es el desarrollo de tecinas y
algoritmos para el procesamiento de datos no numéricos. Por ejemplo, lógica de
predicados, procesamiento de listas, algebra, cálculo, etc.
e)
Redes de computadoras: es el estudio y desarrollo de los
algoritmos para la transmisión segura de datos a través de redes, por ejemplo,
diseño de protocolos, compresión de datos, recuperación de errores, etc.
f)
Inteligencia artificial: es el estudio y desarrollo de técnicas
para simular inteligencia en las computadoras.
g)
Biocomputacion: es el estudio y desarrollo de técnicas basadas en conceptos biológicos.
h)
Visualización: es el estudio y desarrollo de técnicas para la representación
visual de datos.
III.
Computaciónon teorica:
Son los fundamentos teóricos
de las actividades que se desarrollan en computación.
o a) Algoritmia Análisis de algoritmos y complejidad: es el estudio de la
eficiencia de los algoritmos y la complejidad involucrada en los cálculos.
o Compresión de datos: es el estudio y desarrollo
de algoritmos para reducir el número de bits necesarios en la representación de
información.
o Criptografía: es
el estudio y desarrollo de algoritmos para la codificación y decodificación de
datos.
o Algoritmos eficientes: es
el estudio de las modificaciones matemáticas que pueden hacerse a los
algoritmos para reducir el tiempo de cómputo, sin alterar su objetivo.
o Algoritmos paralelos: es
el estudio y desarrollo de algoritmos para la solución de problemas utilizando
varios procesadores que trabajen al mismo tiempo en un mismo objetivo.
o Algoritmos distribuidos: es el estudio y desarrollo
de algoritmos para la solución de problemas repartiendo los objetivos en
diferentes procesadores.
o Supercopita (computo intensivo): desarrollo de algoritmos
que aprovechen mejor la capacidad del supercopita (procesamiento vectorial,
paralelismo, "pipelining", etc.).
b)
Estructuras para el manejo de información.
o Estructuras de datos: análisis, desarrollo y optimización
de estructuras para el almacenamiento y manejo de datos en memoria primaria.
o Estructuras de archivos: análisis, desarrollo y optimización
de estructuras para el almacenamiento y manejo de datos en memoria secundaria.
o Bases de datos: análisis,
desarrollo y optimización de técnicas para el manejo de grandes cantidades de
datos interrelacionados, evitando redundancias y garantizando la seguridad e
integridad de los datos.
c)
Investigación de operaciones (optimización): estudio
de las técnicas para reducir al mínimo el costo de las operaciones que se
requieren para resolver un problema.
d)
Desarrollo de lenguajes de programación: definición de la sintaxis y semántica
de lenguajes que resulten útiles en la resolución de problemas específicos.
e)
Compatibilidad (teoría de la computación): es el estudio de las maquinas teóricas
que pueden calcular funciones computables (funciones que pueden calcularse por
medio de algoritmos sin importar como se exprese o se implemente).
f)
Autómatas
o Teoría de autómatas: estudio de redes de nodos
cuya trayectoria cambia en cada instante de acuerdo a ciertas reglas.
o Compiladores: desarrollo
de autómatas para la traducción de lenguajes teóricos de alto nivel a lenguajes
de bajo nivel.
g)
Sistemas operativos: desarrollo
de sistemas para el control a bajo nivel de los recursos de la computadora.
h)
Arquitectura de computadoras: diseño teórico de las estructuras
para almacenamiento de datos y las reglas para su manipulación.
IV.
Aplicaciones de control:
Es el uso de la
computadora en el gobierno de maquinas.
a)
Electrónica digital: tecnología basada en componentes electrónicos
que controlan y procesan pulsos binarios. Su funcionamiento se basa en la lógica
binaria.
b)
Microprocesadores: diseño y construcción de sistemas electrónicos
basados en microprocesadores y programados en ensamblador.
c)
Teoría del control: estudio teórico del comportamiento
de sistemas físicos y los elementos para su gobierno.
d)
Robótica: diseño y construcción de mecanismos controlados por computadora,
capaces de desarrollar actividades físicas.
e)
Automatización: diseño y construcción de
dispositivos para el control por computadora de maquinas existentes.
|
Gags: croad computan, ordenador de ADN, ordenador cuántico, tecnología HUD,
web social, GPS, tecnología en coches, gafas de da, pulseras inteligentes,
playeras GPS, pantalla oled, nace, raid
Relacionados: Biometría, Nanotecnología, Inteligencia Artificial, Robótica, Biomedicina y Biotecnología , o un Breve Glosario Nano tecnológico, Seguridad básica para empresas
Tecnologías futuristas actuales
Aunque parecen salidas de las películas de ciencia ficción, sin embargo estan siendo utilizadas en la actualidad por universidades, gobiernos y todo tipo de empresas. Son las tecnologías más futuristas, pero sin embargo totalmente operativas a día de hoy.
Hacemos un breve repaso.
Un dispositivo aptico es un
robot que tiene la capacidad de devolver fuerza al usuario en función de sus
movimientos en un mundo virtual (entornos de realidad virtual,
RV), permitiendo simular tacto
virtual en cualquier aplicación de computación gráfica.
Actualmente, se utiliza en medicina, defensa y robótica, sin embargo, ya está empezando a dar sus primeros pasos en ámbitos como tele operación y tacto remoto. Su inclusión en las redes sociales y la comunicación a distancia llegará en breve, lo que permitirá tener experiencias y conversaciones más realistas con personas que se encuentren en otra localización física.
Ya está siendo creada en el MIT
(Instituto Tecnológico de Massachusetts) y parece de pura ciencia ficción.
Es una superficie capaz de recrear en 3D y en tiempo real aquello que capta una cámara conectada al sistema. Las cámaras capturan los objetos en movimiento y en 3D. Un ordenador procesa esos datos 3D y los transmite a una superficie con cilindros móviles que generan una réplica del objeto al instante. Dentro de poco, tendremos estas impresoras a nuestra disposición, creando juguetes, piezas y modelos reales con nuestras manos de manera remota.
Actualmente, el mundo de la Inteligencia Artificial y los videojuegos
se une en la generación automática de contenidos.
Por ejemplo, en el juego de Dar CRL, la Inteligencia Artificial ha sido capaz de generar de manera automática la vegetación del juego, sin necesidad de tener a un diseñador replicando y diseñando cada uno de los vegetales que aparecen. Sin embargo, no estamos muy lejos de ser capaces de generar automáticamente conversaciones en los videojuegos, un avance increíble que dejaría que el jugador pudiera hablar con el juego y, sin texto predefinido, el videojuego creará la conversación en base a las preferencias del jugador.
Existen en el mercado desde
hace algún tiempo, pero aún son pocos los usuarios que lo utilizan debido a
la poca fiabilidad de sus movimientos.
Se trata de generar un teclado virtual mediante una proyección virtual, de manera que podamos escribir sobre cualquier superficie, y que un sensor recoja los movimientos de nuestras manos con teclado. Robots de servicio
Existen muchos robots de
industria que ayudan en las labores de construcción y creación de máquinas.
Tanto en empresas, defensa, etc. estos dispositivos ayudan a las labores de las personas. Estamos muy cerca de que estos robots pasen a ser robots de servicios, que puedan ayudarnos a realizar acciones diarias como cargar maletas, limpiar. También existen ya robots que asisten a personas con necesidades o a mayores.
Ya existe el inicio de
investigaciones que pretenden poder modelar en la realidad materia física
(plastilina, arcilla, etc.) y, de manera automática.
Gracias a captura de movimiento y análisis visual, se genera el modelo 3D en el ordenador. Sin necesidad de replicar el trabajo o de aprender miles de herramientas de modelado. Microsoft se encuentra trabajando en esta tecnología que utiliza las bondades de Conectó. Levitación real
Levitaron, un curioso aparato con el que
se puede lograr la levitación de una pequeña peonza mientras gira en el aire,
ya se encuentra en el mercado.
Se basa en un imán en forma de anillo que proporciona un campo magnético en forma de copa, y un núcleo central que es también un imán. Un proyecto del MIT Media Lob llamado Serón también lograba la levitación gracias al magnetismo. En este caso la levitación magnética está controlada por ordenador. No obstante, el otro gran apartado en cuanto a levitación se refiere viene de la mano de la mecánica cuántica, de la comunidad científica ya se está encargando de profundizar. La levitación cuántica tiene un amplio futuro ante sí. Móvil adaptado al movimiento
Actualmente, se está
investigando en el ámbito Universitario la capacidad de determinar la acción
de un usuario en función de los movimientos que realiza con el móvil.
Analizando los datos del acelerómetro integrado en los dispositivos móviles, son capaces de evaluar si el sujeto está durmiendo, corriendo, andando o estático. Esto podría proporcionar la ventaja de adaptar las aplicaciones y funciones del móvil en función de lo que esté haciendo el usuario en cada momento. Por ejemplo, ponerte música si detecta que estás corriendo, silenciarte el móvil si sabe que estás durmiendo y un largo etcétera de posibilidades adaptadas al usuario. Es decir, teléfonos más inteligentes.
Tendencias en Tecnología
empresarial del futuro: EFICIENCIA
En estos tiempos de cambios acelerados, en gran medida impulsados por los avances tecnológicos, es muy importante para los empresarios y directivos de cualquier área funcional, escuchar la voz de los investigadores más avanzados en tecnología. Conocer las tecnologías del presente, pero, sobre todo, conocer cuáles son las líneas de investigación y las expectativas de evolución de esas tecnologías que puedan afectar a nuestra empresa, son elementos clave para orientar correctamente la gestión sin que, además, haya demasiado tiempo para la adaptación a los cambios dada la velocidad con que ocurren. En la actualidad, toda la información la estamos gestionando mediante los actuales ordenadores programables (que funcionan en base a instrucciones expresas previas), pero el crecimiento exponencial de esa información a partir de datos no estructurados ni certificados, apunta claramente a que esos ordenadores no serán capaces de discriminar, tratar, almacenar, seleccionar, en definitiva, gestionar, correctamente la información en los próximos años. “El futuro”, según decía Salvador Martínez, IBM Global Managing Director, “pasa por ordenadores tipo Watson”, y ese futuro está más cerca que nunca (esto lo digo yo), porque hoy se puede leer en The New York Times, que IBM pretende llevar la inteligencia de su superordenador Watson a la nube para animar a la creación de aplicaciones. El nuevo proyecto de IBM consistirá en llevar la inteligencia de este superordenador a la nube por “una pequeña fracción del coste anterior” y “con más del doble de potencia”. De este modo, los desarrolladores podrán acceder a su API y toda una serie de herramientas con las que crear sus propias aplicaciones y explorar nuevas soluciones que faciliten la vida de los usuarios. Este servicio cloud incluirá, además, material educativo e incluso una tienda de software. La “sangre electrónica” de IBM Pero IBM tiene más investigaciones abiertas, que serán claves para la tecnología empresarial del futuro. Una de ellas es la creación de ordenadores energizados y enfriados por líquido, tal y como lo hace el cerebro humano. Hace unas semanas, el gigante azul dio a conocer un prototipo de un nuevo ordenador inspirado el cerebro humano. Concretamente, un par de científicos de la compañía buscan la forma de reducir el tamaño de los superordenadores para ponerlos encima de tu escritorio. La clave está en un líquido capaz de transportar energía y refrigerar a la vez. Llega la “sangre electrónica”. “Queremos instalar un superordenador en un terrón de azúcar. Para hacer eso, necesitamos un cambio de paradigma en la electrónica”. Con esta declaración de intenciones, el Doctor Bruno Michel simplifica la explicación del proyecto en el que está trabajando junto al Doctor Patrick Ruch para IBM. La idea es llevar un superordenador que hoy ocuparía la mitad de un estadio a un escritorio en el año 2060. ¿Cuál es la clave para reducir tanto el tamaño de la máquina? La palabra clave es “eficiencia”. Actualmente, los
ordenadores utilizan tan sólo el 1% de su volumen para procesar información.
El resto del espacio es utilizado para alimentar y refrigerar el ordenador.Por otra parte, según los científicos, el cerebro humano es capaz de utilizar tan sólo el 10% de su volumen para esas tareas, utilizando el resto para procesar una gran cantidad de información, convirtiéndose en una máquina de cálculo perfecta situada en un espacio pequeño y que utiliza sólo 20 vatios. Según Michel y Ruch, todo pasa por encontrar un líquido que haga las veces de ‘sangre electrónica’. Un líquido que permita transportar la energía hasta los chips del ordenador y que se lleve el calor generado. De esta forma, se podría reducir el volumen de un ordenador, ya que no sería necesario ocupar grandes espacios con dispositivos para refrigerar los componentes electrónicos y, además, los chips se podrían colocar en bloques. Sin embargo, actualmente esta última idea es impensable debido al calor que se genera en el interior de un ordenador, un líquido que pasara a través de pequeños tubos entre cada uno de los chips haría posible reducir considerablemente el volumen de una máquina. IBM ya trabajó en este sentido con el sistema Aquasar, pero ahora busca la evolución con un líquido que, además, sea capaz de transportar energía hasta los componentes del equipo. Al igual que la sangre transporta azúcar para llevarse después los residuos, IBM trabaja con el vanadio que, en estado líquido, sería cargado con electrodos y bombeado hacia el ordenador, hasta donde llevaría la energía necesaria para que sus componentes funcionen. La tecnología empresarial del futuro En este sentido, la compañía HP también está trabajando duro para sacarle brillo a su bola de cristal. Para ello, se ha codeado con los mejores visionarios del mundo empresarial, a nivel mundial, líderes de distintas industrias y los mejores expertos en tecnología para encontrar los aspectos clave para que una empresa no sólo supere los retos futuros, sino que triunfe en el año 2020 y más allá. Este esfuerzo realizado también por sus empleados, clientes y partners a nivel mundial pertenece al nuevo proyecto de la compañía Enterprise 20/20. Se trata de un informe completo donde se cubren todos los factores a tener en cuenta. Este análisis ha desvelado, también, cuáles serán las necesidades de las empresas y las personas en el años 2020 y el papel que tendrá la tecnología. El proyecto lo dio a conocer Enrique Solbes, vicepresidente de HP, en el XXVII Encuentro de las Telecomunicaciones celebrado el pasado mes de septiembre en Madrid. Las tendencias que pronostica:
-Surgirá una potente clase
media en países emergentes como China, India, Brasil y Rusia a la expansión
de las megalópolis, con un 60% de la población mundial habitando en ciudades.
-Las conexiones entre personas, máquinas y lugares serán cada vez más intensas y fluidas. “La tecnología trabajará para nosotros, ayudando a maximizar unos recursos escasos, a procesar ingentes cantidades de información y a transformarla en conocimiento útil para las personas y las empresas”, destacó Enrique Solbes. -El movimiento Big Data continuará su marcha imparable: la cantidad de datos en el mundo se incrementará un x44 respecto a los del 2009, alcanzando un universo digital de 35 ZB en 2020. -Contaremos con un hardware más inteligente y los data centers estarán automatizados completamente. -La seguridad del mundo digital será una de las principales preocupaciones. Por ello, los sistemas de seguridad emplearán la inteligencia proactiva, identificando los riesgos de ataque antes que cualquier humano. -En las empresas: las nuevas capacidades de análisis -a una velocidad y escala inimaginable hoy- permitirán mejorar el conocimiento sobre los clientes y anticipar los cambios en el mercado. -Aparecerá el marketing en tiempo real y el conocimiento desde la información. -Uno de los aspectos que más va a evolucionar será la forma en la que trabajamos y los Recursos Humanos, todo evolucionará hacia un rol de gestión en comunidad. -La generación de los ’Millennials’ (no han conocido el mundo sin Google) será la que mayor impacto tenga en la forma de trabajar y dé forma al empleado de 2020: ágil, conectado y móvil. -Otro cambio a tener en cuenta será la formación de equipos de negocio integrados por los mejores profesionales, no pertenecerán a una empresa concreta, sino que se unirán en clusters para ofrecer un producto o servicio al mercado.
La adaptación necesaria
Uno de los problemas principales a los que se enfrentarán tanto las medianas como las grandes empresas en el futuro, será al incremento de la potencia, el almacenamiento y el ancho de banda disponible a través de la “nube” a un bajo coste. Las compañías seguirán acumulando crecientes volúmenes de datos, procedentes de una gran variedad de fuentes cada vez a mayor ritmo, tendencia conocida como “Big Data”. Además, el aumento del uso del vídeo y las redes sociales como herramientas de comunicación también se expandirá entre las empresas. De hecho, estas tecnologías ya existen y mientras las nuevas tecnologías ya están probablemente emergiendo, serán las nuevas formas de aplicación de las actuales las que llevarán a un cambio radical en los modelos empresariales. Hace un tiempo Carsten Bruhn, Vicepresidente Ejecutivo de Ricoh Europe, pronunció las siguientes palabras con las que nos quedamos:
“Las nuevas
tecnologías por sí mismas no ayudarán necesariamente a las empresas a
mantenerse al día con los cambios necesarios para sobrevivir y crecer. Son
los procesos empresariales que hay detrás de la tecnología los que deben ser
revisados y optimizados para añadir un valor empresarial real. En el centro
de este cambio, una empresa debe asegurarse de que sus procesos conectan a
las personas con la información, permiten una mayor colaboración y alientan a
compartir conocimientos. Los líderes empresariales tienen que elegir socios
que les ayuden a implementar los cambios de un modo efectivo en el tiempo. Ya
no es viable implementar las nuevas tecnologías simplemente para aprovechar
las ganancias en eficiencia a corto plazo”.
(Extracto de http://www.muycomputerpro.com
)
Los móviles del 2020: bajo la
piel y controlados por la voz y la mirada
El micrófono estará bajo la piel y la cámara será una lentilla. Todo funcionará con la voz, la batería durará semanas sin recargar y las redes 5G multiplicarán por 100 la actual velocidad. Así será, poco más o menos, los dispositivos que utilizaremos como móviles en la próxima década. "Lo bueno y malo de aventurar cómo serán las cosas dentro de cinco o seis años es que siempre se podrá comprobar en el futuro si lo escrito en este reportaje era realmente correcto". Curados en salud con semejante advertencia, los expertos en telecomunicaciones consultados por esta revista apuestan por dispositivos cada vez más potentes, con baterías de larguísima duración y con nuevos formatos de pantallas, ya sean virtuales o incluso arrugables. El reconocimiento de voz será el sistema preferido de entrada de datos en el horizonte del año 2020 y sucesivos. Asusta pensar que el micrófono, el auricular y hasta las antenas podrán escamotearse bajo la piel, en un tinte de uña, en un pendiente o en cualquier prenda de vestir. Serán dispositivos weareables, que nos acompañarán a todas horas, silenciosamente con otros artilugios. Las anteriores son algunas de las conclusiones tras un sondeo entre fabricantes de dispositivos y redes. Seis años puede ser un plazo relativamente corto, pero tratándose de tecnologías móviles resulta casi una eternidad. Echando la vista atrás, en ese mismo plazo de tiempo acababa de nacer el iPhone, un prodigio que dejó obsoleto todo lo anterior. Las aplicaciones móviles o el cloud entonces eran terrenos apenas sin explorar. Tampoco existían Whatsapp, ni Twitter ni otros prodigios que han cambiado radicalmente la forma en la que nos comunicamos. Formas inauditas de movies ![]()
Parece probable que el concepto
del smartphone tal y como ahora se entiende, el mismo que nos acompaña de
forma perenne en el bolsillo, pronto tomará otras formas. Ya lo hace
materializado en relojes (smartwatch)
o gafas (Google Glass) y en los próximos años cambiará su anatomía para
encarnarse en empaste molar, un tatuaje o un cubre botón de la camisa.
Las pantallas de cristal actuales serán una antigualla en cuanto los polímeros electroluminiscentes demuestren sus capacidades. Son legión los expertos en prospectiva que pregonan la eclosión de las holografías, de forma que la imagen y el sonido romperán sus actuales limitaciones técnicas para convertirse en lo más parecido a las apariciones de la princesa Leía de la película La Guerra de las Galaxias. No se hablará de pulgadas cuando se pueda interactuar sobre superficies luminosas flotando en el aire. Eludir la ciencia ficción resulta complicado. La realidad aumentada madurará en los próximos años de tal forma que los usuarios del próximo lustro se acostumbrarán a convivir en los entornos virtuales y reales con absoluta naturalidad. Los móviles y tabletas también derrumbarán la bíblica Torre de Babel al poder disfrutar de la traducción instantánea con ayuda de sus dispositivos, lo que rebajará la criticidad de conocer un segundo idioma para manejarse felizmente por el mundo. A modo de ejemplo, Motorola Mobility -propiedad de Google- ha patentado un sistema de móvil escamoteado en el cuerpo humano donde el micrófono se oculta bajo la dermis del cuello -zona donde se puede captar la voz humana con la mayor calidad posible-. Lo más rocambolesco del invento es que el mismo micro podrá detectar las mentiras, a través de las variaciones y alteraciones nerviosas de los sujetos. La telefonía móvil permitirá identificar a sus usuarios con la mayor eficacia y seguridad que ofrecen los pasaportes actuales. Las tarjetas de crédito también tienen la batalla perdida en cuanto los móviles ganan fuerza como medio de pago. Las llaves que abren las cerraduras de la mayoría de nuestras puertas también cederán su función a los celulares y sus hermanos. La voz o la retina serán los métodos más habituales para bloquear y desbloquear los móviles, sin necesidad de contraseñas. Además, los móviles del futuro controlarán la salud de los usuarios, con chequeos en tiempo real. La capacidad de proceso de los microchips de 2020 evolucionará de la misma forma exponencial que lo ha hecho en el pasado. Algunos aventuran microprocesadores de 28 GHz, frente a los 2 GHz de los smartphones actuales. Los usuarios podrán reproducir sus películas o series a través del smartphone para verlas en una televisión conectada o proyectada sobre cualquier superficie. Ni que decir tiene que el móvil de dentro de seis años gozará de la potencia de superordenadores actuales, para así gestionar en tiempo récord todo el conocimiento disponible en Internet y ponerlo a disposición de los usuarios. Los teléfonos móviles de 2020, o como quieran que se llamen entonces, se comunicarán con todos los electrodomésticos del hogar y de la ciudad. Las smart homes y la smart cities hablarán el mismo idioma, en un Internet de las cosas que demandará conectividad de calidad y permanente. Algunas estadísticas para el futuro La gran mayoría de los objetos cotidianos estarán conectados entre sí, hablarán en su silencio digital, lo que permitirá dotar de inteligencia gran parte del entorno. Todo lo anterior conlleva que el tráfico de datos se multiplique por mil en los seis próximos años, lo que obligará a que las redes emprendan un salto a lo que será la telefonía 5G, según calcula Ericsson, compañía que también estima que en 2020 habrá más de 50.000 millones de dispositivos conectados -diez veces más que los actuales-, si bien la velocidad de conexión será hasta 100 veces más rápida a través de la telefonía 5G, aún huérfana de estándar. La nanotecnología realizará nuevas conquistas en el negocio celular para revolucionar el concepto tradicional de los móviles. El silicio quedará obsoleto con nuevos materiales moleculares en los que los científicos llevan años trabajando. Los móviles no sólo multiplicarán la duración de sus baterías, sino que permitirán la recarga de las mismas en cuestión de minutos... o segundos. Los sistemas de alimentación energética inalámbrica permitirán que los dispositivos carguen sus baterías mientras reposan sobre la mesa o en la guantera del coche.
La próxima era tecnológica será
la de los sensores y la hiperconexión global
La imparable penetración de la
tecnología personal está llevando a la Humanidad a la "era de los
sensores", un mundo hiperconectado en el que tan importante será la
gestión de la identidad como la relación con las máquinas.
Así se ha puesto de manifiesto en Sherpa Summit, un encuentro sobre Internet y aplicaciones celebrado en Bilbao en Mayo de 2.013. "Vivimos detrás de una pantalla, nos estamos volviendo zombis de los móviles", ha expresado el desarrollador de Firefox OS Guillermo López. Y esa realidad se va a acentuar en los próximos años, según el ex consejero delegado de Apple John Sculley, quien ha apuntado que la humanidad está entrando en la "era de los sensores". Basándose en datos
de Cisco, ha explicado que al comienzo de la próxima década habrá 20.000
millones de dispositivos inalámbricos conectados —no sólo móviles, también
cámaras o micrófonos— recopilando y generando datos.Sculley ha apuntado mediante videoconferencia que se están gestando los bloques de construcción de una computación más móvil que tendrá capacidad para escuchar y comprender la información de esas numerosas fuentes. En ese contexto aumentan las reservas sobre la privacidad y la seguridad de los datos personales. El responsable de investigación y desarrollo de Paypal, John Lunn, ha resaltado que la vida física y la virtual tienen cada vez una mayor necesidad de conectarse y la identidad real de los usuarios es relevante. "Nuestros datos son importantes porque las empresas sacan partido de ellos. Tenemos que preguntarnos qué vamos a recibir a cambio de ese regalo que les damos. (...) Si no compartes tu identidad te estás perdiendo algo importante, pero debes tener cuidado", ha alertado. "Nos hemos abaratado, hemos regalado nuestra identidad a cambio de algo tonto. Somos los responsables de darle valor a nuestra identidad", ha recalcado por su parte la tecnóloga de Silicon Valley Chris Shipley. Desde la Fundación Mozilla han defendido que no es necesario mirar muy lejos para innovar porque la web, que nació hace 20 años, es también una vía de futuro como plataforma móvil. Según la responsable de la Fundación Mozilla, Mitchell Baker, la web es la tercera alternativa a los sistemas operativos de Apple y Google, que dominan el mercado, aunque ha reconocido que competir con ellos es "una labor muy difícil". El sistema operativo móvil Firefox OS es abierto, ya que está basado en el lenguaje estándar HTML5, lo que le permite funcionar en los distintos dispositivos. Su objetivo es penetrar en mercados emergentes con teléfonos inteligentes asequibles. "A veces se piensa que ya está todo hecho, pero van a entrar en el sistema —Internet— de dos mil a tres mil millones de persona en los próximos años. Y un entorno abierto es la mejor de las posibilidades (...) porque tener que pedir permiso y vivir en el sistema de otro te impone limitaciones", ha declarado Baker. Abrir los teléfonos móviles "La idea es abrir los teléfonos móviles", ha sostenido el desarrollador Guillermo López, quien ha destacado que la web está llena de posibilidades al ser "hackeable" y estar fuera de control de compañías. Y como las aplicaciones (Apps) han cambiado Internet, otro ex directivo de Apple, Doug Solomon, ha compartido en Bilbao su fórmula mágica para crear aplicaciones que "no den asco". Los primeros pasos han de ser analizar lo que a la gente le importa y lo que realmente desea, hablar en su mismo lenguaje y hacer prototipos gráficos del proyecto desde el primer día para corregir posibles fallos antes de que sea demasiado tarde. Pero también se requiere eliminar cualquier obstáculo que se interponga en el camino del usuario —aspirar a la sencillez—, buscar inspiración fuera de la oficina e intentar que la "app" sea divertida: "Tratamos de conseguir que las personas cambien su vida" con las aplicaciones, ha sentenciado. El responsable de Global Affaires y New Ventures de Telefónica, Javier Santiso, ha dicho en una entrevista que los mejores emprendedores españoles están mejor formados que los de Silicon Valley. Aunque ha reconocido que las startups no son la solución a la crisis, ha destacado que en esta coyuntura hay "bendiciones disfrazadas" que sólo surgirán si se resetean los modelos establecidos. Según la responsable de la Fundación Mozilla, un grupo de personas puede construir algo que tenga impacto, pese a que el resto del mundo pensara que era descabellado. La tecnología, la realidad lo atestigua, no tiene límites.
Tendencias futuras en Neurociencia
e interacción Hombre-Máquina
Sobre Neurociencia y Neurociencia, la revista New
Scientist analizó el tema según las predicciones de los principales
investigadores en el área y, si tienen razón, vamos a estar discutiendo,
preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las
implicaciones de la publicidad en implantes cerebrales.Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes. Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación. Y el número óptimo de dedos en nuestras manos será 12,5. ¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según investigadores especializados en tecnologías de interacción humano-computadora (CHI). Humanos y computadoras Normalmente, CHI significa investigar formas de interacción entre humanos
y los dispositivos electrónicos. Pero en una conferencia celebrada
recientemente en Toronto, Canadá, fueron más allá.Crearon el programa de una conferencia imaginaria celebrada en el año 2039, donde se predicen los retos que enfrentaremos con las computadoras del futuro, muchas de las cuales serán implantadas. "Se supone que es una especie de parámetro en la investigación de la interacción humano-computadora, lo que realmente es aterrador o provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca, Nueva York. "Hay una gran cantidad de pensamientos retrospectivos sobre el pasado, pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual creemos que estamos trabajando". New Scientist utilizó el resumen de esta hipotética conferencia para crear una lista de preguntas que, en el año 2039, podrían hacerse nuestros descendientes cyborg. Órganos Intercomunicados entre sí En un resumen titulado "Mi hígado y mi riñón compararon notas", el investigador Michael Muller de IBM, con sede en Cambridge, Massachusetts, observa lo que pasa cuando los monitores implantados en los órganos internos de las personas, una red que él llama Arterionet, son capaces de compartir datos y acumular conocimientos para ofrecer consejos vinculados a la salud. Su conclusión: "Aunque la mayoría de los usuarios se mostraron escépticos, muchos proponen características adicionales que podrían llevar a una mayor aceptación y cumplimiento de dichas recomendaciones". Cabe pensar en cómo la gente podría lidiar con los consejos de salud de los monitores de órganos. La tecnología portátil que registra actividad o estadísticas de salud ha ido ganando en popularidad desde que a principios de año investigadores implantaron tiras de silicona que generan energía en los corazones, pulmones y diafragmas de vacas, cerdos y ovejas vivas. Muller dice que el mayor reto de la creación de Arterionet será averiguar cómo insertar una inteligencia artificial en un contenedor lo suficientemente pequeño y seguro. Plantas con Facebook propio Se crearán redes sociales para plantas que nos ayudarán a abastecernos de alimentos. Para entender esta cuestión, necesita saber de Plantastic, una creación de Bill Tomlinson, y de sus colegas, en la Universidad de California en Irvine. En su resumen, razonan que para que nuestro suministro de alimentos sea más sostenible, puede resultar lógico sembrar más frutas y verduras cerca de nuestra casa. Pero ciertos cultivos prosperan cuando son plantados en grandes cantidades o junto a alguna otra planta, lo cual no siempre es posible para el agricultor promedio. La plataforma Plantastic le recomendará qué plantas funcionan mejor en su área y le dirá qué están sembrando en su vecindario. Nanochips en las plantas enviarán los datos de nuevo al sitio. Esta información a su vez se podría utilizar para saber qué crece mejor en cierto tipo de ambiente. El equipo de Tomlinson creó un estudio de ficción que observó diez huertos durante dos estaciones de crecimiento. El estudio sugiere que el uso de Plantastic aumentará el rendimiento de un 4% a un 12%. Juliet Norton, estudiante graduada de Tomlinson, está trabajando en una versión inicial de como se vería el sistema en línea. Vehículos autónomos inteligentes Andreas Riener del Institute for Pervasive Computing en Linz, Austria,
escribió una presentación que arranca con una visión audaz del futuro:
"El primer vehículo sin conductor cruzó nuestras carreteras en 2019.Ahora, 20 años después, es el momento de revisar cómo esta innovación ha cambiado nuestro comportamiento con respecto a la movilidad”. Esta visión se basa en una tendencia real. Los automóviles sin conductor han sido objeto de titulares desde hace varios años. Es legal conducirlos en el estado de Nevada, y el automóvil sin conductor de Google ya acumula cientos de miles de kilómetros de práctica. La contribución de Reiner es explorar cómo esto nos va a cambiar. Él predice que una vez que los robots puedan conducir en cualquier lugar, muchos de nosotros vamos a perder por completo el interés en conducir. Muy pocos tendremos vehículos propios. Quienes lo tengan no perderán tanto tiempo equipándolos o manejándolos sólo por diversión. Las personas que todavía aman a los automóviles tendrán que hacerlo en "parques de recreación" especiales, donde puedan conducir de forma manual en un ambiente artificial. "Si los vehículos del futuro son sólo un medio para llegar de A a B, esta cultura del automóvil podría perderse", dice. Ideas implantadas Varios colaboradores de CHI 2039 imaginan un futuro de implantes cerebrales. Estudian si serán dispositivos que capturen las percepciones de cada uno de nuestros sentidos o si leerán directamente la información transmitida por nuestras neuronas. Los científicos no se preguntan si los implantes serán una realidad sino cuándo lo serán, lo que podría generar oportunidades pero también retos. Shachar Maidenbaum de la Hebrew University of Jerusalem, Israel, imagina dispositivos que registrarán nuestras experiencias del día a día y luego nos permitirán compartir nuestros recuerdos con otros, revolucionando tribunales, aulas y nuestras interacciones sociales. Por su parte, Daniel Gruen de IBM Research, contempla dispositivos que podrían estimular la memoria cuando se nos olvida algo, lo que podría tener algunas consecuencias escalofriantes. "Imagínese que en un futuro contamos con sistemas que nos ayuden con la memoria", dice. "¿En qué momento usted comenzará a preguntarse, 'Un momento, tuve una idea. ¿Será realmente mía o es que la idea viene de otro lugar?'". Manipulación e implantes genéticos ¿Alguna vez ha tenido que esforzarse para deslizarse a través de la pantalla de su iPhone? Ese ya no será un problema cuando nos implanten un pulgar adicional en la mano. Ese es el punto de partida de un estudio ficticio en el que 124 personas optaron por implantarse dedos biónicos en sus manos, hasta un promedio de 13,4. Johannes Schöning, científico informático en la Universidad de Hasselt en Bélgica y sus colegas, incluso tienen una conclusión interesante: "12,5 es el numero óptimo de dedos en la mano, con seis dedos de tamaño normal en cada mano y la mano dominante con un dedo extra, mediano, que puede moverse libremente a 6 grados". Es algo interesante, pero incluso Schöning admite que 25 años podría no ser suficientes para que esto suceda. Originalmente, este artículo fue publicado por la revista New Scientist science y la revista de tecnología. Para mayor información, visite a New Scientist.
El futuro de las
telecomunicaciones
En un mundo marcado por la
creación constante de contenidos y el acceso a los mismos las 24 horas al
día, los 7 días de la semana, los expertos consideran que mejorar la
experiencia de usuario tal y como hoy la conocemos será clave para avanzar
hacia un nuevo nivel en la era de la información. Tanto es así que el
proveedor TIC Huawei ha redactado un decálogo de factores a tener en cuenta
durante los próximos años.
Esto es lo que necesitará la
industria:
1.- Desarrollar infraestructuras tecnológicas basadas en cloud computing,
en tanto que la nube supone una evolución lógica de Internet y permite a las
empresas gestionar el fenómeno del “Big Data” conforme a sus necesidades.
2.- Aprovechar este impacto del
cloud para transformar las TIC y llevar a las PyMEs las mismas soluciones
tecnológicas de las que ya disfrutan las grandes corporaciones. Por ejemplo,
la personalización de servicios más seguros y fiables.
3.- Adaptar la red móvil a la
era del gigabyte mediante el desarrollo de infraestructura de banda ancha con
mayor nivel de tráfico. El objetivo último es reducir el tiempo medio que se
emplea en transportar información entre dos puntos.
4.- Evolucionar hacia redes de
próxima generación ALL-IP y lograr la convergencia entre redes fijas y
móviles. Esto significa completar la migración de servicio, su
interconectividad y realizar cambios tanto operacionales como de
mantenimiento.
5.- Proveer de redes
inteligentes y operaciones de ancho de banda bajo demanda, contribuyendo así
a optimizar la eficiencia del servicio y a reducir los costes.
6.- Modernizar los sistemas de
TI de los operadores de modo que soporten los procesos de principio a fin,
desde el diseño y desarrollo de productos hasta la puesta en marcha en el
mercado y la distribución. Esto es, los sistemas de soporte de operaciones
(OSS) y los de apoyo a las empresas (BSS).
7.- Integrar el contenido
digital y desarrollar multiplataformas (móvil/PC/TV/PAD) que funcionen
también bajo demanda, ya que cada vez un mayor porcentaje de la población
consumirá y generará contenidos a través de la Red de redes.
8.- Analizar grandes volúmenes
de información y extraer conclusiones que ayuden a obtener ventajas
competitivas y diferenciadoras, más allá de los tradicionales sistemas de
gestión.
9.- Garantizar la seguridad de
la información de usuarios y empresas, así como su privacidad. Algo que viene
condicionado por la existencia de redes IP abiertas y la popularidad de los
modelos de almacenamiento virtuales.
10.- Implementar redes ópticas
inteligentes que sustituyan al cable de cobre, ofrezcan mejores opciones de
desarrollo,
nternet, con la ventaja de que
estés donde estés, puedes escuchar tu emisora favorita, como por ejemplo con
TuneIn. Y esto se podría aplicar a cualquier otro contenido multimedia.
Y por supuesto, cuando el coche esté parado, y el conductor no corra el riesgo de distraerse fatalmente, siempre queda la opción de navegar por la red libremente y visitar páginas y páginas: para leer el periódico, consultar la bolsa, acceder a tal o cual blog.. Como podéis ver todas estas posibilidades, y muchas más que se les ocurran a los desarrolladores, ya las tenemos, o podríamos tener a través de un smartphone o una tablet, el resto está en que se integren totalmente y se sinergicen dentro
información más rápido
(aproximadamente en la mitad de tiempo) y que su vista se fatigue menos, pues
los ojos tienen que hacer menor esfuerzo a la hora de enfocar los datos, al
haber menor diferencia de distancias entre la carretera y el parabrisas, que
entre la carretera y el cuadro de instrumentos.
De ahí que muchos consideren el HUD como un sistema muy útil en los coches, que mejora la seguridad pues el conductor permanece con la vista en la carretera, más concentrado, y se reducen las ocasiones en las que la aparta. Ahora bien, todo tiene su justa medida. Debemos cuidar de que la cantidad de información que se proyecta sea la justa, útil y necesaria. Proyectar demasiados datos y ocupar mucha superficie, complican la comprensión y asimilación de los mismos, pueden tapar la visión de cosas que sucedan en la carretera y pueden distraer al conductor. ¿Qué información podemos considerar útil? En mi opinión con la velocidad en dígitos y un cuentavueltas básico sería suficiente. De manera complementaria podría incluirse también el límite de velocidad del tramo (utilizando un sistema de reconocimiento de señales) y las indicaciones esquemáticas del navegador GPS.
Más
resolución, color, láser y gestos
Los sistemas HUD más habituales hoy en día, suelen ser monocromos, en colores como el blanco, azul, verde o naranja. Sin embargo ya se están presentando evoluciones que combinan varios colores (aunque por ahora tampoco muchos, solo dos, tres o cuatro). De este tipo se pueden encontrar, por citar algunos ejemplos, en varios coches híbridos, como el Toyota Prius (una berlina de tamaño medio), el Toyota Prius+ (un monovolumen de siete plazas), el Peugeot 3008 HYbrid4 (un todocamino con tracción a las cuatro ruedas), y el Citroën DS5 Hybrid4 (una berlina deportiva), coches de los que podéis ampliar información en Motorpasión Futuro si tenéis curiosidad. Los sistemas del Citroën y del Peugeot son ligeramente diferentes, ya que no proyectan la imagen directamente sobre el parabrisas, sino sobre una pequeña pantalla de policarbonato transparente escamoteable. He conducido ambos coches y el sistema me resultó también bastante cómodo e igualmente útil.
Incluso ya hay alguno que
proyecta imágenes con más resolución y capacidad de mostrar gráficos más
complejos y realistas con una paleta de colores más amplia, de 16 o 32
colores. BMW ya tiene uno de estos en sus coches más modernos.
Se está probando también proyectar otro tipo de información, como por ejemplo un asistente para mantener la distancia de seguridad con el vehículo que nos precede en la carretera. De nuevo BMW está en ello. Pioneer está trabajando en un HUD láser económico, integrado de fábrica en los coches, que podría estar para el año 2016 a un precio de unos 200 dólares (unos 160 euros al cambio actual). Es a color y muestra también información del navegador GPS y de la agenda de contactos del teléfono. Y por último Mercedes-Benz, como proyecto más de futuro, ha presentado un sistema de proyección de información sobre el parabrisas que incorpora también la realidad aumentada y el control por gestos. Este sistema muestra información interactiva en tiemo real al ir conduciendo con el coche, como por ejemplo un monumento, o un restaurante. Este tipo de información es a la que me refería antes: puede que sea demasiada y distraiga al conductor. ![]()
El disco de datos que
sobrevivirá a la humanidad
Científicos de la Universidad de Twente, Holanda y el Centro Kist Europa, en Alemania, crearon un disco para almacenar datos que, dicen, podrá sobrevivir un millón de años. Igual que la Piedra Rosetta permitió al mundo moderno comprender la florida cultura de los egipcios, Jeroen de Vries cree imprescindible que el hombre produzca un gran documento que le sobreviva. Una obra única que permita descifrar la humanidad a ojos de futuras civilizaciones, incluso cuando el ser humano se haya extinguido. De Vries ha dedicado su investigación de doctorado en el Instituto de Nanotecnología MESA+ de la Universidad de Twente (Holanda) a fabricar un disco hiperresistente. Tanto, que conservará su información a pesar del tiempo y quedará para quien habite el planeta dentro de un millón de años. La producción del disco se enmarca dentro de un proyecto más grande
llamado Documento de la humanidad."Estamos buscando la forma de almacenar datos de tal manera que lleguen intactos al futuro y sean comprensibles incluso a una inteligencia no humana. Podemos, por ejemplo, dejar como legado una copia digital de la Mona Lisa u otros cuadros que representan nuestro paso por la Tierra", cuenta Jeroen de Vries vía telefónica a BBC Mundo. "Si no hacemos nada, no podremos elegir qué información pervive, ya que sería cuestión de casualidad", añade el director del doctorado, Miko Elwenspoek. Y es que, pese a que en esta era de internet la cantidad de información que producimos es ingente, pocos piensan en conservarla para que resista el tiempo a gran escala. Los DVD o CD de los que tenemos en casa pueden resistir unos 40 o 50 años a temperatura ambiente. La gran aportación de de Vries al Documento de la humanidad es la durabilidad de este CD, capaz de resistir como mínimo un millón de años, "aunque queremos hacerlo aún más longevo", asegura. Para demostrar la robustez de su disco, la Universidad de Twente ha producido un video en que muestra que puede acceder a su contenido incluso después de someterlo al calor de todo tipo de hogueras. En el video se ve cómo un estudiante de la universidad fríe un huevo directamente sobre el disco, después lo quema junto con carbón y, no contento con eso, decide terminar por "cocinarlo" a la parrilla junto con un par de hamburguesas. El disco supera todas estas pruebas: su contiene sigue siendo accesible. De Vries basa la convicción de que el disco logrará resistir tanto tiempo en una ecuación matemática llamada ecuación de Arrhenius. Según ésta, el material debería resistir al menos una hora a 188 grados centígrados para simular el deterioro que sufren los materiales en un millón de años. El truco de la longevidad "El truco que utilizamos es insertar puntos de material en cerámica, que es químicamente, térmicamente y mecánicamente muy resistente. El material incrustado en la cerámica está protegido de cualquier embate ambiental. Esto hace que los datos sean robustos durante millones e incluso miles de millones de años", explica Miko Elwenspoek. El plan del proyecto Documento de la humanidad tiene pensado incluso cómo y dónde es el mejor lugar para ubicar ese "regalo informativo" para nuestros sucesores en la Tierra. Su idea es proteger los discos guardándolos en los mismos recipientes que contienen los residuos nucleares para que su exposición a las inclemencias del mundo sea la menor posible. Por ahora se han producido cuatro discos hiperresistentes, aunque ninguno es el definitivo. "Eso tomará unos años", dice Vries, que asegura que su disco tiene aún posibilidad de mejorar y ser aún más resistente. La información que contiene el disco que se ha quemado en el video es sólo "un ejemplo", aún no está completo con la historia relevante sobre la humanidad. En esta versión de prueba se insertó un código QR en el CD, que se reprodujo cada vez más pequeño hasta una escala nanométrica, para comprobar que la información no se daña. "Pero probablemente sea otro tipo de codificación la que se utilice en un hipotético CD definitivo", explica Vries. Los prototipos ya tienen una característica que pretenden que no varíe: no se podrán modificar. "Ésta ha sido una decisión intencional. Una vez se graban los datos esa información no se podrá cambiar, ampliar ni alterar. No queremos que nadie lo pueda modificar". En 10 ó 20 años Ante un auditorio repleto y entusiasmado, el Dr. Michio Kaku, en 2011, daba una conferencia sobre cómo será la vida dentro de tan sólo un par de décadas, recorriendo el día a día de cualquier persona. Realidad Aumentada, nanotecnología y conexión total, suficientes para llevar a cabo la revolución digital. La realidad aumentada dará toda clase de información sobre el mundo El doctor en física teórica de la Universidad de Nueva York llegó a la primera jornada de Movilforum Conference de Telefónica sabiendo que tenía un material sensacional para impresionar a su audiencia. Pero en toda su exposición siempre se mantuvo apegado a la realidad (o casi). “The Next 10 to 20 Years into the Future” sirvió para comprobar que la tecnología que hasta hace muy poco era considerada como algo futurista está actualmente o en investigación o incluso en pruebas. Por eso, a cada idea ‘descabellada’ le seguía el nombre de la empresa u organismo público que lo está desarrollando. Las telecomunicaciones en la persona La Realidad Aumentada será la palanca que impulse al ser humano a una sociedad repleta de conocimientos. Sin necesidad de alterar su cuerpo, solamente con una conexión a Internet, se tendrá acceso a toda la información tanto para el aprendizaje, como para el trabajo o para el ocio. En 10 o 20 años, contaba el profesor Kaku, los cristales de las gafas o incluso unas lentillas servirán de pantallas para completar la información que el mundo real transmite. Un turista viajará a Roma y podrá ver a las legiones luchando o las viejas construcciones. Por otra parte, servirá como complemento a la información personal, ya sea para subtitular a tiempo real a personas que hablan en otra lengua o para recordar, mediante reconocimiento facial, de qué y cuándo conoces a esa persona que te está saludando y que no ubicas exactamente. Sin olvidar la enorme cantidad de usos militares, como por ejemplo para los pilotos de avión, que podrán ver efectivamente en 360º. Comunicación sin interrupciones Todo será mucho más simple dentro de unos años. Las teles serán transparentes, aunque proyecten imágenes 3D sin gafas. Es decir, una ventana. De hecho, cualquier superficie será una pantalla, algo que ya se está consiguiendo mediante varias investigaciones paralelas, una de ellas, la de Skin. Pero irá más allá; gracias a su interacción, hablarle a la pared será como decir “espejito, espejito mágico”, y se cumplirá el deseo del usuario. El papel transformado en pantalla será tan barato como un folio actual. Se convertirá en doctor en consulta rápida, en secretaria para ver la agenda o también en reproductor de vídeo al que se le puede pedir, como decía el físico, que en lugar de Humphrey Bogart el protagonista de Casablanca sea uno mismo. No habrá escritorio porque el hardware deja de ser necesario. Bastará con escribir en cualquier sitio y el archivo se subirá a la nube. Y entonces, como si supiese a quién pertenece, seguirá a su propietario “a cualquier sitio y en cualquier momento. Es comunicación sin interrupciones”. Y tampoco es ciencia ficción porque ya existe, por ejemplo, en los laboratorios de Microsoft. De la producción en masa a la personalizada Salir a la calle tampoco será lo mismo dentro de 10 ó 20 años. Google sorprendía a propios y extraños hace unos días paseando por las autopistas de Estados Unidos sus coches autopilotados. Este desarrollo, conjunto con Toyota, es sólo el comienzo de un futuro que contempla sin atascos ni accidentes. Ya en la calle, una de las tareas que serán más sencillas en el futuro según Kaku es la de comprar. La información almacenada permitirá pasar de la producción de masas a la producción personalizada para que aumente el grado de satisfacción del usuario. Por ejemplo, alguien llegará a una tienda y verá un modelo que le guste y le quede más o menos bien en función de su talla. Pero eso ya no será un obstáculo porque, al pagar, la tarjeta de crédito dirá a la fábrica que produzca ese modelo con unas medidas determinadas para su cliente. El capitalismo utópico de Adam Smith estará más cerca, asegura el doctor, ya que el usuario tendrá en todo momento mucha más información. Sobre los precios de todas las tiendas, sobre la calidad y fabricación de los productos, sobre los bienes sustitutivos. Cómo implantarlo socialmente, eso sí, no es su campo. Y por encima de todo, la salud La medicina reducida a las telecomunicaciones. El final de la conferencia puso la vista en un mundo en el que no hay lugar a la intimidad, ya que el ser humano está constantemente controlado por su entorno. Desde el punto de vista médico, por ejemplo, el váter será capaz de analizar día a día la orina para recomendar una dieta, el cepillo de dientes pedirá cita en el dentista si detecta una caries, la ropa sabrá cómo está la temperatura corporal o si hay algún fallo funcional y avisará a urgencias si es necesario. Y por qué parar aquí. La reconstrucción de órganos para implantes partiendo de células propias, las interfaces cerebrales que permiten ya a una persona con parálisis total navegar por Internet o jugar videojuegos o nanocápsulas recorriendo el interior del cuerpo humano en busca de problemas. Todo es posible en un futuro que estará aquí en 10 ó 20 años.
(Más sobre Biometría, Nanotecnología, Inteligencia Artificial, Robótica, Tendencias Tecnológicas de futuro, Biomedicina y Biotecnología , o un Breve Glosario Nanotecnológico)
|
f) Domo tica (edificios inteligentes): Aplicacion de la automatizacion, inteligencia
artificial y optimizacion para el manejo eficiente y control de los
recursos de un edificio.











Robots de servicio
Levitación real
Móvil adaptado al movimiento
Actualmente, los
ordenadores utilizan tan sólo el 1% de su volumen para procesar información.
El resto del espacio es utilizado para alimentar y refrigerar el ordenador.
Basándose en datos
de Cisco, ha explicado que al comienzo de la próxima década habrá 20.000
millones de dispositivos inalámbricos conectados —no sólo móviles, también
cámaras o micrófonos— recopilando y generando datos.
Sobre
Normalmente, CHI significa investigar formas de interacción entre humanos
y los dispositivos electrónicos. Pero en una conferencia celebrada
recientemente en Toronto, Canadá, fueron más allá.
Andreas Riener del Institute for Pervasive Computing en Linz, Austria,
escribió una presentación que arranca con una visión audaz del futuro:
"El primer vehículo sin conductor cruzó nuestras carreteras en 2019.
1.- Desarrollar infraestructuras tecnológicas basadas en cloud computing,
en tanto que la nube supone una evolución lógica de Internet y permite a las
empresas gestionar el fenómeno del “Big Data” conforme a sus necesidades.
La producción del disco se enmarca dentro de un proyecto más grande
llamado Documento de la humanidad.
No hay comentarios:
Publicar un comentario