domingo, 19 de octubre de 2014

nueva

                Bloque 1
  Introducción a la informática   
              Actividad 1
 Ciencia  y tecnología
        Actividad 1.1
1-Describe los cinco avances tecnológicos actuales que te resulten más sorprendentes.
a)      El vehículo espacial.
b)      El robot espacial.
c)       El .
d)      El sistema para evitar que los líquidos se adhieran en cualquier tipo de superficie.
e)       Las flyknit Raser


      Actividad 1.2
1-menciona tres desarrollos tecnológicos que imagines que se darán en el futuro.
a)      Que los educadores en vez de humanos sean robots.
b)      Que las computadoras en vez del teclado funcione con la voz humana.

      Actividad 1.3
Con la ayuda de tu profesor, organízate en grupos pequeños con tus compañeros de clase y realiza lo que se pide.

1-investiga en tiendas de computación, en revistas o en una enciclopedia, que nuevos equipos periféricos existen (por lo menos 3) para las computadoras actuales y para qué sirven.

             Periférico                                       Utilidad 

a)      teclado (Keyboard)
Dispositivo de entrada, que por medio de un conjunto de teclas de entrada permite al usuario comunicarse con la computadora. Los teclados de las terminales y de las computadoras personales contienen las teclas de una máquina de escribir estándar, además de un cierto número de teclas especiales.

b)      lapiz óptico (Optical Reader)
Muy utilisado por nosotros en los grandes supermercados, los cuales interpretan información codificada mediante un sistema de barras.

c)       micrófono (Microphone)
 permite por medio de la voz indicar alguna instrucción a la computadora. Ya comenzamos a ver a nuestro rededor sistemas de cómputo basados en el reconocimiento de voz que puede efectuar una computadora mediante una tarjeta instalada específicamente para convertir la voz en bits y viceversa, así ya comenzamos a ver aparatos controlados por voz, como algunos que nos contestan por teléfono cuando llamamos a algún banco para pedir nuestro saldo.
                                                       
                                                   


2-¿Qué tipo de procesador tiene la computadora de tu escuela?
          - Inter (r) Pentium (r) CPU G630@270Ghz 2.70Ghz.
3-¿Qué sistema operativo la computadora del laboratorio de computo de tu escuela?
       - Windows 7 profesional.
4-Escribe el nombre de tres de las aplicaciones o programas que tienen las computadoras de tu escuela.

a)            -Auto card 2007  (programa de diseño).
b)           -Edusoft  (programa se ingles).
c)            -Microsoft office2010.    
                               
5-Identifica las marcas comerciales de los siguientes componentes de las computadoras de tu escuela.
- monitor: DELL.
     - Ratón: DELL.
- Teclado: DELL.
     - Impresora: DELL.

         Actividad 1.4
·         1-aprovechando tu visita a una tienda de computadora, investiga los nombres de dos programas que realicen cada una de las siguientes actividades


Procesador de textos
-Microsoft word.
-Word pad.

Hojas o libros de cálculo
-Word perfet.
-Writer de openofice.

Presentaciones electrónicas
       -Power point.
       -Open Offices org impress.
Bases de datos.
     -Acord.
    -Isis/base.
2-si pudiste ver la ventana propiedades del sistema para saber qué tipo de procesador tenia tu computadora, averigua cuanta memoria RAM tiene.
Memoria RAM:    -4gbs.            GB. 
3- Escribe debajo de cada figura, de tipo de personal informático se trata:
   - Un  maestra
    -Un estudiante
    -Un tecnico
    Actividad 1.5
1-relaciona las actividades que realiza la computadora con las unidades de la CPU poniendo el número que corresponde. Sigue el ejemplo.
(1) Suma 3+4+5+8+25.
(2) Lee el numero 8 y lo lleva al monitor.
(3) Almacena el valor 13 y lee lo que está en la dirección FF2A.
(1) Imprime el archivo  carta.doc.
(3) Almacena como C, el resultado de la operación A+B.
(1) X es 25; Y es 15.
(2) Avisa a la impresora que se enviara un archivo para imprimir.

1.     Unidad aritmética y lógica.
2.     Unidad de control.
3.     Unidad de memoria.

Flecha a la derecha con muesca: Procesador de datos Las computadoras tienen una manera lógica de operar, como la mayoría de las cosas en este mundo. Su funcionamiento se puede resumir en tres pasos básicos.
Flecha derecha: Entrada de datos
Salida de resultado
 
 




De manera muy parecida suceden los acontecimientos de su vida: la entrada de datos son tus acciones y actitudes; el procesamiento se lleva a cabo en tu interior y en el interior de la sociedad en que vives, y los resultados son tus triunfos o tus fracasos, y los de la sociedad en su conjunto.

2-relaciona con una línea las acciones de la izquierda con los resultados de la derecha.
Rectángulo redondeado:   Éxito
 



                                  
 

xicto
Rectángulo redondeado: Todos lo que haces lo realizas con gusto y de la mejor manera.
 

Rectángulo redondeado: Fracaso                                                                                                               
Rectángulo redondeado: No compartes tus conocimientos, porque tus compañeros podrían superarte.
 


Rectángulo redondeado: Tratas de ayudar a los demás para  que todos podamos estar mejor.  Rectángulo redondeado: Consideras que mientras estén  bien tú y tu familia, la sociedad estarás mejor.                                                                  



     Actividad 1.6
1-investiga el funcionamiento de un termómetro clínico y analízalo.
·        ¿Cuál sería su unidad de entrada?
        Bulbo
·        ¿Cuál sería su unidad de proceso?
        Vástago
·        ¿Cuál sería su unidad de salida?
       Mercurio

2-investiga y contesta. ¿Qué miden los siguientes instrumentos? Escribe cual sería la unidad que se pide al final.

·        Manómetro
          Unidad de salida
http://fluidos.eia.edu.co/hidraulica/articuloses/medidores/manometro/man13.jpg


·        Pluviómetro: su unidad de proceso se llama colector.
·        Voltímetro
·        Unidad de salida:
·        Unidad  de proceso:
·        Unidad de entrada:


           Actividad 1.7        
Con la ayuda de tu profesor, organízate en grupo pequeños con tus compañeros de clases y realiza lo que se pide.
1. Escribe  en una hoja  cuadriculada cada una de las letras del alfabeto y, frente a ellas, su correspondiente representación grafica en códigos Morse y braille. Investiga en una enciclopedia los códigos. http://upload.wikimedia.org/wikipedia/commons/thumb/e/e9/International_Morse_code.png/220px-International_Morse_code.png
http://www.oni.escuelas.edu.ar/2004/neuquen/690/Images/BRAILE-1.jpg
 2. ¿para que se utiliza el código braille?
     Este es un sistema de lector-escritura utilizados por ciegos.
            Actividad 1.8
1.     Representa con un byte, mediante ceros y unos, la letra Y mayúscula del código ASCII.
Bit7
Bit6
Bit5
Bit4
Bit3
Bit2
Bit1
Bit0









            Actividad 1.9
1. La letra A se encuentra en la posición decimal 65 y la z en la 90. Repasa la tabla  ASCII de las mayúsculas y forma tu nombre representado cada letra con un byte.
binarios
27   
26
25
24
23
22
21
20

Decimal
128
64
32
16
8
4
2
1


letra
Posición ASCII







N
Bit7
 Bit6
Bit5
Bit4
Bit3
Bit2
Bit1
Bit0

O









M









B









R









E









S






























            Actividad 1.10
1-observa los aparatos de tu casa y anota en las líneas de abajo cuales crees que sean analógicos y cuales digitales.
                         Analógicos                                                   Digitales

1)      -reloj                                                                                                            
2)      -cámara                                                                                                                               
-DVD                                                                                                                          - cámara.                                                                                                                                 - televisión.


2-investiga en una enciclopedia, en revistas de computación, en una enciclopedia virtual como Encarta, o en el departamento de cómputo de una universidad de tu comunidad, cuales son las características y aplicaciones de una supercomputadora. Compáralas con las de la computadora de tu escuela.
      Las principales características de una supercomputadora son:
- procesan gran cantidad de información en poco tiempo.
- Son las más potentes y rápidas.
- Cuentan con un control de altas temperaturas.
En comparación con la de mi escuela la diferencia es que la supercomputadora tiene más capacidad de procesar datos todos en un mismo tiempo; además de que traen su propio sistema de enfriamiento entre otros.
                                                   

      Actividad 1.11
1-Organiza con tus compañeros grupos de cuatros a seis integrantes y visiten tiendas de computadoras para investigar el nombre de tres importantes empresas fabricantes de microcomputadoras. Comenten, junto con tu profesora o profesor, cuales son las tres más importantes de tu localidad:
a)      DELL.
b)     HP.
c)      IBM.

2-Cada uno de los grupos debe ir a una tienda de cómputos diferentes. Preguntan las características de la mejor computadora que tenga a la venta y compárenlas. Anota aquí las de la computadora con mejores características:
Características:
a)      . Sistema operativo: Intel (R) core(TM)2 Duo CPU T6600 @ 2.20Ghz  2.20Ghz
b)      Memoria Ram: 4,00Gb.
c)      Capacidad de almacenamiento de disco duro: 300Gb.
d)      Procesador: Windows 7 ultímate.


        Actividad 1.12
1-acude a un supermercado cerca de tu casa y pregunta para que utilizan la computadora.     En los supermercados utilizan las computadoras como caja registradora, para la administración y controles  internos como inventarios.
2-pregunta en la administración de tu escuela que uso dan a las computadoras.
Para usos académicos, calificar exámenes, realizar trabajos, llevar control de asistencias, para uso de oficina como guardar archivos.
3-en tu próxima visita al doctor, pregúntale para que usa la computadora.
En la medicina: Se utilizan para consultar los números de la sala que necesite el paciente, también para imprimir la receta escrita por él mismo por el ordenador, y otras cosas más.

4-investiga que aparato o dispositivos de los automóviles o del hogar utilizan computadoras

                         . Automóvil.                                  Hogar.
a)      GPS                                         a) lavarropas
                                                b) microondas.
                                                C) televisión
                                                D) aire acondicionado.


     Actividad 1.13
1-imagina un mundo sin computadora y descríbelo brevemente.
El mundo sin computadores sería un mundo muy limitado, pues no habría comunicación al exterior excepto por teléfono celular pero también hay que tener en cuenta que muchos negocios y aportes se han hecho a esta herramienta llamada computadora.

También no podríamos compartir con amigos o familiares lejanos ya que es muy difícil localizar a un contacto lejano si no es por una Red Social.

Creo que la economía sería igual limitada y todo se vendría abajo, puesto que por Internet se hacen grandes compras y es uno de los medios de negocios más usados del mundo.

Sería también muy difícil darse por enterado de cosas que no pasan por televisión, hay veces censuran, aunque pienso que una computadora sin Internet no sirve para nada... Así que también va en torno a la Internet...

El mundo no sería igual, Cambiaría solo nuestra forma de vida.
Con aspectos positivos y negativos, claro...
       
2-¿crees que por el hecho de que alguien sepa más que tú sobre computadora, tiene derecho a entrar en tu computadora para husmear o robarte información? describe algunas normas éticas que consideres validas para remediar esta situación.



Actividad 1.14
1-¿qué piensas que le sucedería a una persona si alguien borrara de las computadoras  todos sus registros de identificación como acta de nacimiento, registro del seguro social, licencia de conducir y cuentas bancarias?

Bien en mí pensar… si sucediera eso automáticamente esa persona no existiera en la sociedad.

2-Discute con tus compañeros sobre que normas éticas se deberían aplicar al utilizar las computadoras, para afianzar cada uno de los siguientes valores:

a)      Libertad: libertad de expresión sin tener que dañar, desacreditar a alguien en su cometario.
b)     Respeto: respetando las informaciones personales de cada individuo y a su persona.
c)      Honradez:


         Actividad 1.15
1-con la ayuda de tu profesor, organicen el grupo en seis equipos para investigar sobre los siguientes temas de computación:

a) La historia de los inicios de la computación, desde los primeros instrumentos de cálculo hasta las primeras maquinas mecánicas de calcular.
 Una de las primeras herramientas mecánicas del cálculo fue el ábaco en el medio oriente, el cual se compone de un marco atravesado por alambres y en cada uno se deslizan una serie de argollas.
Tiempo después aparecen las estructuras de Napier, que se utilizaron para multiplicar.
En 1642, Blaise Pascal, desarrolló una calculadora de ruedas engranadas giratorias, (antecedente de la calculadora de escritorio), sólo podía sumar y restar, se le llamó la "Calculadora Pascal".
En 1671 Gottfried Leibnitz, construyó la calculadora sucesora a la de Pascal la cual, podía efectuar las cuatro operaciones aritméticas
Charles Babbage, matemático e ingeniero inglés, es considerado el Padre de la computadora actual, ya que en 1822, construyó la máquina de diferencias , la cual se basaba en el principio de una rueda giratoria que era operada por medio de una simple manivela. Después ésta máquina fue sustituida por otra que podía ser programada para evaluar un amplio intervalo de funciones diferentes la cual, se conoció como "Máquina Analítica de Charles Babbage",
Años después, aparece Herman Hollerith, quien, en 1880, inventó las máquinas perforadoras de tarjetas, inspiradas en el telar de Jacquard, y la finalidad de la máquina de Hollerith era acumular y clasificar la información. Con ésta máquina se realizo el primer censo guardando la información en una máquina ya que ante, se procesaban en forma manual.
Hollerith fue el iniciador de la gran compañía IBM.
En 1884, Dor Eugene Felt, construye la primera máquina práctica que incluía teclas e impresora, llamado "Comptómetro o calculadora con impresora"
Konrad Zuse, construye su calculadora electromecánica Z1, que ya emplea un sistema binario y un programa indicado en cinta perforadora, fue la primera máquina de tipo mecánico y es considerada como la primera computadora construida, debido a que manejaba el concepto de programa e incluía unidad aritmética y memoria.
Howard Aiken junto con la IBM, construyó en 1937, la computadora MARK 1, en donde la información se procesaba por medio de tarjetas perforadoras, con esta máquina se podían resolver problemas de ingeniería y física, así como problemas aritméticos y lógicos. Después aparecen la MARK II, MARK III Y MARK IV. Con esta calculadoras se alcanza la automatización de los procesos.
Von Neumann, construye la EDVAC en 1952, la cual utilizaba el sistema binario e introducía el concepto de programa almacenado. La primera aplicación que se le dio a la máquina fue para el diseño y construcción de la bomba H.
la ABC, computadora construida por John Vincent Atanastoff, la cual contenía bulbos, es considerada como la primer computadora electrónica.


La historia de las primeras maquina de calcular, desde las primeras maquina mecánicas de calcular hasta la perforadora de tarjetas de hollerith. 
2500 a.C.
a. - El antecedente más remoto es el ábaco, desarrollado en China. Fue el primer instrumento utilizado por el hombre para facilitar sus operaciones de cálculo.
b.      2000 a.C.
- En el "I-Ching, o Libro de las mutaciones", también de origen chino, se encuentra la primera formulación del sistema binario.
c.       600 a.C.
- El astrónomo, matemático y filósofo griego Tales de Mileto describió algunos aspectos de la electricidad estática. De sus escritos proviene la palabra electrón, que se usa para designar a las partículas negativas del átomo.
d.      500 a.C.
- Los romanos usaron ábacos con piedrecitas, a las que llamaban cálculos, que eran desplazadas sobre una tabla con canales cifrados con sus números (I, V, X, L, C, D, M).
e.      1633
- El inglés William Oughtred creó un instrumento que hoy se conoce como regla de cálculo, utilizado hasta hace unos años por los ingenieros.
f.        1642
- El francés Blaise Pascal (1623-1662) inventó y construyó la primera sumadora mecánica. La pascalina hacía sumas y restas. Funcionaba gracias a una serie de ruedas contadoras con diez dientes numerados del 0 al 9. El padre de Pascal era recaudador de impuestos, así que fue el primero en usarla.
g.       1671
- El filósofo y matemático alemán Gottfried Leibniz desarrolló una máquina multiplicadora.
h.      1833
- El profesor de matemáticas de la Universidad de Cambridge Charles Babbage (1792-1871) ideó la primera máquina procesadora de información. Algo así como la primera computadora mecánica programable. Pese a que dedicó casi cuarenta años a su construcción, murió sin terminar su proyecto.
i.        Babbage usaba cartones perforados para suministrarle datos a su máquina (había copiado la idea del telar del francés Joseph Marie Jacquard, inventado en 1801), que se convertirían en instrucciones memorizadas; algo así como los primeros programas.
j.        Esperaba lograr imprimir la información registrada, obtener resultados y volver a ingresarlos para que la máquina los evaluara y dedujera qué se debía hacer después.
k.       La evaluación y la retroalimentación se convertirían en la base de la cibernética, que nacería un siglo más tarde.
l.        1847
- El británico George Boole desarrolló un nuevo tipo de álgebra (álgebra de Boole) e inició los estudios de lógica simbólica. En 1847 publicó "El análisis matemático del pensamiento" y en 1854 "Las leyes del pensamiento".
m.    Su álgebra era un método para resolver problemas de lógica por medio de los valores binarios (1 y 0) y tres operadores: and (y), or (o) y not (no). Por medio del álgebra binaria, posteriormente se desarrolló lo que hoy se conoce como código binario, que es el lenguaje utilizado por todos los computadores.
n.      1890
- Los cartones perforados y un primitivo aparato eléctrico se usaron para clasificar por sexo, edad y origen a la población de Estados Unidos. Esta máquina del censo fue facilitada por el ingeniero Herman Hollerith, cuya compañía posteriormente se fusionó (1924) con una pequeña empresa de Nueva York, creando la International Business Machines (IBM), empresa que un siglo.

 Más tarde revolucionó el mercado con los computadores personales o PC.







a.     La historia de la computación hasta la primera mitad del siglo xx.

Edad Media

El matemático e ingeniero persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones

Siglo XVII


El matematico e ingeniero persa Musa al-Juarismi (780-850), inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
1623: La primera calculadora mecánica fue diseñada por Wilhelm Schickard en 1624: La primera regla deslizante fue inventada por el matemático inglés William OughtredAlemania. Llamada "reloj calculador".
      1666: Samuel Morland inventa la primera máquina de multiplicar.
     1777: Charles Stanhope (tercer earl de Stanhope) (Charles Mahon) inventa la     primera máquina lógica, el "demostrador lógico". Era un aparato de bolsillo.

1869: La primera máquina lógica en usar el álgebra de Boole para resolver problemas más rápido que humanos, fue inventada por William Stanley Jevons. La máquina, llamada el piano lógico,.
1919: los inventores estadounidenses W. H. Eccles y F. W. Jordan desarrollan el primer circuito multivibrador o biestable (en léxico electrónico flip-flop). Xx.

·         1936: Konrad Zuse completa la primera computadora electro-mecánica, aunque no 100% opera1941: La computadora Z3 fue creada por Konrad Zuse. Fue la primera máquina programable y completamente automática.
1942: John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora de propósito especial para resolver sistemas de ecuaciones lineales simultáneas, la cual fue llamada la "ABC" ("Atanasoff Berry Computertiva, la Z1.
·         1945: El primer caso de malfuncionamiento en la computadora causado por la intrusión de una polilla al sistema fue documentado por los diseñadores del Mark II.
·          
·         1950: Alan Turing expone un artículo que describe lo que ahora conocemos como la prueba de Turing. Su publicación explora el desarrollo natural y potencial de la inteligencia y comunicación humana y de computadoras.


b.     La historia de la computación de la segunda mitad del siglo xx.
1951: comienza a operar la EDVAC, a diferencia de la ENIAC, no era decimal, sino binaria y tuvo el primer programa diseñado para ser almacenado
·         1952: Claude Elwood Shannon desarrolla el primer ratón eléctrico capaz de salir de un laberinto, considerada la primera red neural.
·         1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras.
·         1953: se crean memorias a base de magnetismo (conocidas como memorias de núcleos magnéticos).
·         1954: se desarrolla el lenguaje de programación de alto nivel Fortran.
·         1956: Darthmouth da una conferencia en a partir de la que nace el concepto de inteligencia artificial.
·         1956: Edsger Dijkstra inventa un algoritmo eficiente para descubrir las rutas más cortas en grafos como una demostración de las habilidades de la computadora ARMAC.
·         1957: IBM pone a la venta la primera impresora de matriz de puntos.
·         1957: se funda la compañía Fairchild Semiconductor.
·         1958: comienza la segunda generación de computadoras, caracterizados por usar circuitos transistorizados en vez de válvulas al vacío.
·         1957: Jack S. Kilby construye el primer circuito integrado.
·         1957: la organización ARPA es creada como consecuencia tecnológica de la llamada Guerra Fría.
·         1960: se desarrolla COBOL, el primer lenguaje de programación de alto nivel transportable entre modelos diferentes de computadoras.
·         1960: aparece ALGOL, el primer lenguaje de programación estructurado y orientado a los procedimientos.
·         1960: se crea el primer compilador de computador.
·         1960: C. Antony R. Hoare desarrolla el algoritmo de ordenamiento o clasificación llamado quicksort.
·         1961: en IBM, Kenneth Iverson inventa el lenguaje de programación APL.
·         1961: T. Kilburn y D. J. Howart describen por primera vez el concepto de paginación de memoria.
·         1962: en el MIT, Ivan Sutherland desarrolla los primeros programas gráficos que dejan que el usuario dibuje interactivamente en una pantalla.
·         1962: en el MIT, Hart y Levin inventan para Lisp el primer compilador autocontenido, es decir, capaz de compilar su propio código fuente.
·         1962: un equipo de la Universidad de Mánchester completa la computadora ATLAS. Esta máquina introdujo muchos conceptos modernos como interrupciones, pipes (tuberías), memoria entrelazada, memoria virtual y memoria paginada. Fue la máquina más poderosa del mundo en ese año.
·         1962: el estudiante del MIT Steve Russell escribe el primer juego de computadora, llamado Spacewar!.
http://upload.wikimedia.org/wikipedia/commons/thumb/9/96/Ascii_full.png/150px-Ascii_full.png
Caracteres ASCII imprimibles, del 32 al 126.
·         1962: un comité industrial-gubernamental define el código estándar de caracteres ASCII.
·         1963: DEC (Digital Equipment Corporation) lanza el primer minicomputador comercialmente exitoso.
·         1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras. Las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
·         1964: aparece el CDC 6600, la primera supercomputadora comercialmente disponible.
·         1964: en el Dartmouth College, John George Kemeny y Thomas Eugene Kurtz desarrollan el lenguaje BASIC (el Dartmouth BASIC).
·         1965: Gordon Moore publica la famosa Ley de Moore.
·         1965: La lógica difusa, diseñada por Lofti Zadeh, se usa para procesar datos aproximados.
·         1965: J. B. Dennis introduce por primera vez el concepto de segmentación de memoria.
·         1965: en los clásicos documentos de Dijkstra se tratan por primera vez los algoritmos de exclusión mutua (sistemas operativos).
·         1966: la mayoría de ideas y conceptos que existían sobre redes se aplican a la red militar ARPANET.
·         1966: aparecen los primeros ensayos que más tarde definirían lo que hoy es la programación estructurada.
·         1967: en el MIT, Richard Greenblatt inventa los primeros programas exitosos de ajedrez.
·         1967: en IBM, David Noble ―bajo la dirección de Alan Shugart― inventa el disquete (disco flexible).
·         1968: Robert Noyce y Gordon Moore fundan la corporación Intel.
·         1968: Douglas Engelbart lleva acabo "The Mother of All Demos".
·         1969: el protocolo de comunicaciones NCP se crea para controlar la red militar ARPANET.
·         1969: Data General Corporation distribuye la primera minicomputadora de 16-bit.
·         1969: en los laboratorios Bell, Ken Thompson y Dennis Ritchie desarrollan el lenguaje de programación B.
·         1969: en los laboratorios Bell de AT&T, un grupo de empleados de dicho laboratorio entre los que se encuentran Ken Thompson, Dennis Ritchie y Douglas Mcllroy― crean el sistema operativo UNICS.
·         1970: el sistema UNICS es renombrado como Unix.
·         1970: la empresa Corning Glass Works vende comercialmente el primer cable de fibra óptica.
·         1970: E. F. Codd se publica el primer modelo de base de datos relacional.
·         1970: el profesor suizo Niklaus Wirth desarrolla el lenguaje de programación Pascal.
·         1970: Brinch Hansen utiliza por primera vez la comunicación interprocesos en el sistema RC 400.
·         1970: Intel crea la primera memoria dinámica RAM. Se le llamó 1103 y tenía una capacidad de 1024 bits (1 kbits).
·         1970: Se funda La división de investigación Xerox PARC.
·         1971: Intel presenta el primer procesador comercial y a la vez el primer chip microprocesador, el Intel 4004.
·         1971: Ray Tomlinson crea el primer programa para enviar correo electrónico. Como consecuencia, la arroba se usa por primera vez con fines informáticos.
·         1971: en el MIT, un grupo de investigadores presentan la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (FTP).
·         1971: Texas Instruments vende la primera calculadora electrónica portátil.
·         1971: John Blankenbaker presenta el Kenbak-1, considerado como el primer ordenador personal de la historia, sin un procesador, solo con puertas lógicas. Solo vende 40 unidades en centros de enseñanza.
·         1972: aparecen los disquetes de 5 1/4 pulgadas.
·         1972: Robert Thomas Morris crea el primer virus informático, llamado Creeper. Atacó a una máquina IBM Serie 360. Con el fin de exterminarlo se crea el virus Reaper, que es considerado por muchos como el primer antivirus.
·         1972: en los Laboratorios Bell, Ken Thompson y Dennis M. Ritchie crean el lenguaje de programación C.
·         1972: Nolan Bushnell y Ted Dabney fundan la Atari.
·         1972: Intel desarrolla y pone a la venta el procesador Intel 8008.
·         1972: C. A. R. Hoare y Per Brinch Hansen desarrollan el concepto de región crítica.
·         1973: ARPA cambia su nombre por DARPA.
·         1973: La división de investigación Xerox PARC desarrollo el primer ordenador que utilizó el concepto de Computadora de Escritorio llamado Xerox Alto, además de ser el primer ordenador en utilizar una GUI y un mouse.
·         1974: Vint Cerf y Robert Kahn crean el TCP (protocolo de control de transmisión).
·         1974: Se crea el sistema Ethernet para enlazar a través de un cable único a las computadoras de una LAN (red de área local).
·         1974: Gary Kildall crea el sistema operativo CP/M (Control Program for Microcomputer). Violando sus derechos de autor) se desarrolla el sistema operativo MS-DOS.
·         1975: en enero la revista Popular Electronics hace el lanzamiento del Altair 8800, el primer microcomputador personal reconocible como tal.
·         1975: se funda la empresa Microsoft.
·         1976: se funda la empresa Apple.
·         1977: se hace popular el ordenador Apple II, desarrollado por Steve Jobs y Steve Wozniak en un garaje.
·         1978: se desarrolla el famoso procesador de textos WordStar, originalmente para plataforma CP/M (Control Program for Microcomputer).
·         1979: Dan Bricklin crea la primera hoja de cálculo, que más tarde sería denominada VisiCalc.
·         1979: Toru Iwatani, de la empresa Namco, crea el juego Pacman.
·         1980: en IBM, un grupo de investigación desarrolla el primer prototipo de RISC (Computadora de Instrucción Reducida).
·         1980: la empresa Mycron lanza la primera microcomputadora de 16 bits, llamada Mycron 2000.
·         1980: Laboratorios Bell desarrolla el primer microprocesador de 32-bit en un solo chip, llamado Bellmac-32.
·         1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
·         1981: se termina de definir el protocolo TCP/IP.
·         1981: Apple presenta el primer computador personal que se vende a gran escala, el Apple II.
·         1981 (3 de abril): Adam Osborne lanza el Osborne-1, primer ordenador portable (no portátil ya que no usaba baterías).
·         1981: Sony crea los disquetes de 3 1/2 pulgadas.
·         1982: la Asociación Internacional MIDI publica el MIDI (protocolo para comunicar computadoras con instrumentos musicales).
·         1982: Rod Canion, Jim Harris y Bill Murto fundan Compaq (Computer Corporation), una compañía de computadoras personales.
·         1982: aparece el Sinclair Spectrum
·         1983: Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS.
·         1983: Compaq fabrica el primer clon PC IBM compatible, el Compaq portable.
·         1983: ARPANET se separa de la red militar que la originó, de modo que, ya sin fines militares, se puede considerar esta fecha como el nacimiento de Internet.
·         1983: Richard Stallman anuncia públicamente el proyecto GNU.
·         1983: Bjarne Stroustrup publica el lenguaje de programación C++.
·         1983: Sun lanza su primer sistema operativo, llamado SunOS.
·         1983: la compañía Lotus Software lanza el famoso programa de hoja de cálculo Lotus 1-2-3.
·         1983: el sistema DNS (de Internet) ya posee 1000 hosts.
·         1983: Se funda Borland.
·         1984: IBM presenta el PC-AT, con procesador Intel 80286, bus (informática) de expansión de 16 bits y 6 Mhz de velocidad. Tenía hasta 512 kB de memoria RAM, un disco duro de 20 MB y un monitor monocromático. Su precio en ese momento era de 5795 dólares.
·         1984: Apple Computer presenta su Macintosh 128K con el sistema operativo Mac OS, el cual introduce la interfaz gráfica ideada en Xerox.
·         1984: las compañías Philips y Sony crean los CD-Roms para computadores.
·         1984: se desarrolla el sistema de ventanas X bajo el nombre X1 para dotar de una interfaz gráfica a los sistemas Unix.
·         1984: aparece el lenguaje LaTeX para procesamiento de documentos.
·         1984: Hewlett-Packard lanza su popular impresora láser llamada LaserJet.
·         1984: Leonard Bosack y Sandra Lerner fundan Cisco Systems que es líder mundial en soluciones de red e infraestructuras para Internet.
·         1985: Microsoft presenta el sistema operativo Windows 1.0.
·         1985: Compaq saca a la venta la Compaq Deskpro 286, una PC IBM Compatible de 16-bits con microprocesador Intel 80286 corriendo a 6 MHz y con 7MB de RAM, fue considerablemente más rápida que una PC IBM. Fue la primera de la línea de computadoras Compaq Deskpro.
·         1985: Bertrand Meyer crea el lenguaje de programación Eiffel.
·         1985: Adobe crea el PostScript.
·         1985: el ruso Alexey Pazhitnov crea el juego Tetris.
·         1986: ISO estandariza SGML, lenguaje en que posteriormente se basaría XML.
·         1986: Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386, adelantándose a IBM.
·         1986: el lenguaje SQL es estandarizado por ANSI.
·         1986: aparece el programa de cálculo algebraico de computadora MathCad.
·         1986: se registra la primera patente base de codificación de lo que hoy conocemos como MP3 (un método de compresión de audio).
·         1986: Compaq pone en venta la PC compatible Compaq Portable II, mucho más ligera y pequeña que su predecesora, que utilizaba microprocesador de 8 MHz y 10 MB de disco duro, y fue 30% más barata que la IBM PC/AT con disco rígido.
·         1987: se desarrolla la primera versión del actual protocolo X11.
·         1987: Larry Wall crea el lenguaje de programación Perl.
·         1987: el proyecto GNU crea el conjunto de compiladores llamado "GNU Compiler Collection".
·         1987: Compaq introduce la primera PC basada en el nuevo microprocesador de Intel; el 80386 de 32 bits, con la Compaq Portable 386 y la Compaq Portable III. Aún IBM no estaba usando este procesador. Compaq marcaba lo que se conocería como la era de los clones de PC.
·         1988: Soft Warehouse desarrolla el programa de álgebra computacional llamado Derive.
·         1988: Stephen Wolfram y su equipo sacan al mercado la primera versión del programa Mathematica.
·         1988: aparece el primer documento que describe lo que hoy se conoce como firewalls (cortafuegos).
·         1988: aparece el estándar XMS.
·         1989: Creative Labs presenta la reconocida tarjeta de sonido Sound Blaster.
·         1989: T. E. Anderson estudia las cuestiones sobre el rendimiento de las hebras o hilos en sistemas operativos (threads).
·         1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
·         1990: en AT&T (Laboratorios de Bell) se construye el primer prototipo de procesador óptico.
·         1990: Guido van Rossum crea el lenguaje de programación.
·         1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
·         1991: comienza a popularizarse la programación orientada a objetos.
·         1991: surge la primera versión del estándar Unicode.
·         1991: aparece la primera versión de Adobe Premiere.
·         1991: Compaq pone a la venta al por menor con la Compaq Presario, y fue uno de los primeros fabricantes en los mediados de los años noventa en vender una PC de menos de 1000 dólares estadounidenses. Compaq se convirtió en una de los primeros fabricantes en usar micros de AMD y Cyrix.
·         1992: Es introducida la arquitectura de procesadores Alpha diseñada por DEC bajo el nombre AXP, como reemplazo para la serie de microcomputadores VAX que comúnmente utilizaban el sistema operativo VMS y que luego originaría el openVMS. El procesador Alpha 21064 de 64 bits y 200MHz es declarado como el más rápido del mundo.
·         1992: Microsoft lanza Windows 3.1.
·         1992: Aparece la primera versión del sistema operativo Solaris.
·         1992: GNU comienza a utilizar el núcleo Linux.
·         1993: un grupo de investigadores descubren que un rasgo de la mecánica cuántica, llamado entrelazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto aplicada a la construcción de computadoras cuánticas y a la teleportación.
·         1993: Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT.
·         1993: se crea la lista TOP500 que recopila los 500 ordenadores más potentes de la tierra.
·         1994: Marc Andreessen crea el famoso navegador web Netscape Navigator.
·         1994: es diseñado el PHP, originalmente en lenguaje Perl, seguidos por la escritura de un grupo de CGI binarios escritos en el lenguaje C por el programador danés-canadiense Rasmus Lerdorf.
·         1995: Microsoft lanza de Windows 95, junto con su navegador web predeterminado, Windows Internet Explorer.
·         1995: aparece la primera versión de MySQL.
·         1995: se inicia el desarrollo del servidor Apache.
·         1995: la implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems.
·         1995: se presenta públicamente el lenguaje de programación Ruby.
·         1995: se especifica la versión 1.5 del DVD, base actual del DVD.
·         1995: Sony Computer Entertaiment, lanza al mercado la Playstation
·         1996: se crea Internet2, más veloz que la Internet original.
·         1996: se publica la primera versión del navegador web Opera.
·         1996: se inicia el proyecto KDE.
·         1996: la tecnología de DjVu fue originalmente desarrollada en los laboratorios de AT&T.
·         1996: aparece la primera versión de SuperCollider.
·         1996: Sabeer Bhatia y Jack Smith fundan Hotmail.
·         1997: la empresa estadounidense Nullsoft distribuye gratuitamente el reproductor multimedia Winamp.
·         1997: aparece la primera versión pública de FlightGear.
·         1997: Spencer Kimball y Peter Mattis crean la inicial librería GTK+.
·         1998: la W3C publica la primera versión de XML.
·         1998: Microsoft lanza al mercado el sistema Windows 98.
·         1998: Compaq adquiere Digital Equipment Corporation, la compañía líder en la anterior generación de las computadoras durante los años setenta y principios de los ochenta. Esta adquisición convertiría a Compaq en el segundo más grande fabricante de computadoras, en términos de ingresos.
·         1998: Larry Page y Serguéi Brin fundan Google Inc.
·         1999: aparece el entorno de escritorio GNOME.
·         1999: Sean Parker y Shawn Fanning fundan Napster un servicio p2p orientado a compartir archivos mp3 de un usuario a otro.
·         1999: Microsoft publica la primera versión de MSN Messenger.
·         1999: Macintosh lanza Mac OS 9.
·         2000: Sony Computer Entertaiment, lanza al mercado la Playstation 2
·         2000: un equipo de investigadores de IBM construye el prototipo de computador cuántico.
·         2000: Microsoft lanza el sistema operativo Windows 2000.
·         2000: Microsoft lanza el sistema operativo Windows Me.
2000: Macintosh lanza el sistema operativo Mac OS X.
c.      La historia de las microcomputadoras desde 1980 hasta la fecha actual.
d.      1980
En todo el mundo había un millón de ordenadores en uso.

Conferon desarrolló un sistema de auriculares y buscapersonas inalámbricos para reuniones que estaba diseñado para mejorar la comunicación in situ. Esto ocurrió antes del uso muy extendido de radios portátiles.

Varias empresas especializadas en sistemas de inscripción (Galaxy Information Services, CompuSystems y Registration Control Systems) ofrecieron al segmento de ferias de muestras y exposiciones un sistema informatizado básico para la generación de credenciales y el intercambio de datos de contacto (por medio de tarjetas de "crédito" plásticas en relieve). Antes de la aparición de dichas tarjetas, los expositores apuntaban a mano los números de las credenciales de los asistentes, que la empresa encargada del proceso de inscripción cotejaba luego con los datos de contacto.

Galaxy lanzó el primer sistema informatizado de inscripciones in situ. Utilizando 12 puestos de inscripción que transmitían datos vía un módem de 1.200 baudios, esta innovación eliminaba la necesidad de instalar una computadora central en el lugar de celebración.

En Brisbane (Australia), Ray Shaw de Intermedia importó componentes estadounidenses para construir un ordenador CP/M. Escribió el programa "Camputer" que condujo a la versión 1 de EVENTS, que con el tiempo se convirtió en Amlink. En el mismo se utilizó Events VI para gestionar una conferencia con 400 delegados. El programa original era una base de datos plana que generaba credenciales, listas de alojamiento, informes y cartas de confirmación. Hacía falta alrededor de una semana para preparar el software para cada conferencia nueva.

1981
El Commodore VIC-20 irrumpió en el mercado —el primer ordenador en color por menos de 300$— del que se vendió más de un millón de unidades. El monitor era un televisor, se almacenaban los datos en una cinta de casete y las aplicaciones rompedoras eran videojuegos.

IBM lanzó el primer ordenador personal.

Se lanzó MeetingPro, el primer software de base de datos para el sector de congresos y reuniones para la formación médica permanente, con cartas de confirmación personalizadas, credenciales impresas con letra grande, listas de participantes precisas y seguimiento básico del mercado.

1982
Compression Labs empezó a comercializar sistemas de videoconferencia por 250.000$, con un coste de conexión de 1.000$ por hora.

1983
Eric Orkin presentó Delphi Management Systems, el primer software completo para el sector de la hostelería, diseñado para reuniones y grupos, incluyendo funciones para marketing y catering. En 1985 se convirtió en Newmarket Software.

Events V2 (que iba camino de convertirse en Amlink) se reescribió en PL/1, con lo que se podía personalizar para cada evento en menos de un día. El software se ejecutaba en un ordenador MP/M de 24 usuarios, que a su vez estaba conectado a una fotocomponedora de Compugraphic para imprimir catálogos de abstractos, información sobre conferencias, etc.

1984
Apple volvió a lanzar el Macintosh, el primer ordenador fabricado en masa, con un ratón y una interfaz gráfica.

Galaxy utilizó un solo microordenador, fabricado por Digital Systems Corporation, para controlar 120 puestos de inscripción en ferias de muestras y exposiciones.

Events V3 (que iba camino de convertirse en Amlink) se probó en un congreso tecnológico celebrado en París. Fue la primera vez que se utilizó un paquete de software de gestión de reuniones en Europa.

1985
Microsoft lanzó Windows 1.0 que se empezó a comercializar por 100$.

Se comercializaron los CD-ROM, con capacidad para almacenar el texto de 270.000 folios en un solo disco.

El 15 de marzo de 1985, Symbolics, una empresa informática de Massachusetts, registró el primer dominio de Internet, symbolics.com.

Phoenix Solutions presentó MeetingTrak 1.0, otro de los productos pioneros de base de datos para la gestión de reuniones.

PCNametag, el primer software para generar credenciales, se estrenó en MeetingWorld de Nueva York. Con una impresora de matriz de puntos era capaz de generar 120 credenciales por hora. Los asistentes se agolparon para ver el producto.

1986
El primer virus que afectaba a los PCs de IBM fue uno del sector de arranque que se llamaba "Brain".

Eric Thomas desarrolló el primer programa de listas de mailing, denominado "LISTSERV".

Compaq comercializó el primer ordenador compatible con procesador i386.

E.J. Siwek creó y comercializó el primer software para generar planos de salas.

Judith Mathews fundó el Meeting Industry Microcomputer Users Group [grupo de usuarios de microcomputadoras perteneciente al sector de congresos y reuniones]. Durante varios años, MIMUG se reunía antes de la reunión anual de Meeting Professionals International (MPI). Las demostraciones de software marcaron el principio de la formación tecnológica en la industria de los eventos.

1987
Se creó la primera asociación enfocada en la tecnología para la industria de los eventos. La asociación, cuyo nombre del que nadie se acuerda ahora, duró alrededor de dos semanas antes de ser absorbida por MPI como el Computer Special Interest Group.

Se lanzó PowerPoint 1 (denominado originalmente "Presenter"). Sólo mostraba imágenes en blanco y negro, tenía una sola transición y solo funcionada en ordenadores Macintosh.

1988
Empezó a operar la empresa conjunta "videotexto" de IBM y Sears bajo el nombre "PRODIGY".

Los códigos de barras de identidad aparecieron como la primera generación de sistemas impresos de captación de datos de contacto para ferias de muestras y exposiciones.

Dieciséis cadenas hoteleras contribuyeron con 100.000$ para financiar una nueva empresa, The Hotel Industry Switch Co., para conectar electrónicamente las empresas de sistemas de distribución global, como Sabre, con los sistemas informatizados de reservas de los hoteles. THISCO se convirtió en Pegasus, que actualmente procesa más de 300 millones de transacciones al mes.

1989
Desde 1987 hasta 1989, el número de máquinas de fax en el mundo aumentó en más de dos veces para llegar a las 2,5 millones de unidades.

El número de ordenadores en uso en el mundo sumaba las 100 millones de unidades.

Quantum Computer Services, el sistema de tablón de noticias en Internet, se cambió de nombre para pasar a llamarse America Online (AOL). Desde 1989 hasta 1998, el número de miembros de AOL pasó de los 100.000 a los 14 millones.

PCNametag y LasersEdge desarrollaron un software para la generación de credenciales con una impresora láser.

Se lanzó McNametag, uno de los pocos programas de software diseñados específicamente para el sector de congresos y reuniones escrito para ordenadores Macintosh.

1990
Tim Berners-Lee inventó laWorld Wide Web.

1991
Las empresas informáticas comercializaban los ordenadores portátiles con anuncios en los que se veían a los usuarios con sus "máquinas de libertad" al lado de una piscina.

PlanSoft comenzó a desarrollar Ajenis, el primer intento de homogeneizar las comunicaciones relacionadas con las especificaciones de reuniones entre organizadores y hoteleros. Finalmente se lanzó el software en 1995, pero no se adoptó de forma generalizada, en parte debido a la creciente competencia de las primeras herramientas alojadas en la Web.

La School Home Office Products Association fue la primera asociación en usar tarjetas inteligentes (tarjetas de plástico con chips integrados) para la captación de datos de contacto en su ferias de muestras.

1993
A comienzos de 1993, la Web contenía 130 sitios web.

America Online y Delphi empezaron a conectar sus propios sistemas de correo electrónico a Internet, lo que marcó el comienzo de la adopción a gran escala del correo electrónico de Internet como norma mundial.

La división de ordenadores de Apple lanzó el primer PDA (asistente digital personal) que se llamaba "Newton".

Se creó MPINet, el primer grupo de discusión online para profesionales del sector de congresos y reuniones, como foro en CompuServe. El comité encargado de su puesta en marcha, integrado por 16 personas, se reunió en diciembre de 1993, y el servicio se lanzó en la Web un mes después. Antes de cerrarse en 1997, debido al auge de los foros alojados en la Web, tenía 2.600 miembros.

1994
Laurence Canter envió el primer correo electrónico que podía considerarse como spam –"Green Card Lottery 1994 May be the Last One!! Sign up now!! – lo que levantó un gran revuelo en la comunidad de Internet. Como resultado, Carter perdió su empleo y su proveedor de servicio de Internet canceló su cuenta.

Con el objetivo de hacer un seguimiento de los sitios web que les interesaban, dos estudiantes de Stanford crearon "Jerry’s Guide to the World Wide Web" [La guía de Jerry para la World Wide Web], que pronto pasó a llamarse Yahoo!

McGettigan Partners (ahora Maritz) introdujo el primer producto de software que hacía un seguimiento de los gastos y el suministro de servicios de las reuniones. Luego se convirtió en Core Discovery, que al principio sólo estaba disponible para los clientes de McGettigan. En 1998, la empresa lanzó una versión actualizada con una interfaz web para el público en general, bajo el nombre Real-Planner. En 1999, pasó a ser una empresa separada, StarCite, que comercializaba soluciones alojadas en la Web para el suministro de servicios, la gestión de delegados y el seguimiento de gastos.

Registration Control Systems y Galaxy introdujeron unas tarjetas de banda magnética para la captación de datos de contacto en ferias de muestras y exposiciones.

1995
El número de hogares estadounidenses con uno o más PCs aumentó en un 16% en 1995, para llegar a cerca de los 38 millones; 33 millones más que en 1994 y 25 millones más que en 1993.

Conferon creó una entidad separada, PlanSoft (que se conocería luego como Mpoint), el primer motor de base de datos de espacios y peticiones de propuestas para reuniones, con buscador incorporado. Se trataba de un consorcio singular compuesto por una empresa privada (PlanSoft), dos asociaciones (MPI y la Asociación Norteamericana de Ejecutivos de Asociaciones), y tres empresas hoteleras (Marriott, Sheraton y Hyatt). Plansoft.com se lanzó en Internet en 1997.

InterMedia, la feria de muestras de Reed, fue la primera en usar credenciales impresas con barras de códigos bidimensionales, lo que permitió a los expositores captar de una credencial todos los datos de contactos de clientes potenciales.

Holiday Inn lanzó el primer sitio web hotelero con un sistema de reserva y pago de habitaciones.

Aparecieron las primeras herramientas de inscripción online para reuniones; todas con código escrito a mano por programadores.

Lee Travel asumió el control de Internet World Tradeshows para gestionar alojamiento. La empresa lanzó el primer sitio web de alojamiento en 1996, que hacía un seguimiento en tiempo real de bloques de habitaciones e inventarios. De Lee Travel surgió en 1998 b-there.com, uno de los pioneros en productos de gestión de delegados, alojamiento y consolidación. Su producto empezó llamándose ERS (Event Reservation System) y fue unos de los primeros productos de alojamiento e inscripción basados en plantillas. Más tarde, StarCite compraría b-there.com.

Microsoft NetMeeting, una herramienta de colaboración alojada en la Web, se lanzó con Windows95. Esta herramienta permitía a la gente utilizar sus ordenadores para "reunirse" y trabajar juntos desde lugares remotos. Pronto le siguieron WebEx (1996), PlaceWare (1996) y otros, que también proporcionaban funciones de audio y diapositivas y permitían compartir pantallas y archivos.

1996
El Hotel Miyako de San Francisco (ahora el San Francisco Radisson) incorporó el primer sistema de petición de propuestas, desarrollado por Cardinal Communications.

El hotelero Bob Motley, junto con Brian Layton, fundaron Passkey, una de las empresas pioneras en reservas online de habitaciones de hotel. La primera reunión, con una sola sede, que se organizó con Passkey fue para 900 personas en el Hotel Sheraton de Nueva Orleans en 1998.

Cardinal Communications creó el Meeting Industry Mall, el primer portal interactivo alojado en la Web para la industria de los eventos. De ello surgió MIMlist, el primer servidor de listas para profesionales del sector de congresos y reuniones.

1997
La mayoría de las principales empresas hoteleras y asociaciones del sector de congresos y reuniones desarrolló un sitio web.

RegWeb lanzó la primera herramienta de inscripción basada en plantillas, desarrollada por Cardinal Communications. Dicha herramienta permitía a los organizadores crear, y personalizar hasta cierto punto, páginas de inscripción, sin el concurso de un diseñador web. Fue el precursor de los miles de proveedores de servicios de aplicación para la industria de los eventos que aparecerían después.

1998
Las oficinas de Google se montaron en septiembre en un garaje de Menlo Park (California) y, en diciembre del mismo año, fue reconocido como uno de los "100 principales sitios web" por PC Magazine.

ExpoCardWeb presentó una herramienta alojada en la Web que permitía a los expositores acceder a los datos de contacto de clientes potenciales.

AllMeetings.com introdujo una herramienta online gratuita para el análisis de costos generados por las reuniones.

Lee Travel lanzó la primera generación de un producto online para la gestión integral de alojamiento, inscripciones y reserva de pasajes de avión que incorporaba tarifas por zonas.

En abril de 1998 se celebró el evento Open Source Summit. Fue un evento clave que fomentó notablemente la idea del software gratuito y desarrollado públicamente (de fuente abierta). Esto ha llegado a convertirse en un modelo de desarrollo de software más rápido y barato, incluyendo los sistemas operativos Linux y Android y cientos de miles de aplicaciones móviles.

1999
Varios expertos predijeron el colapso total de los sistemas informáticos debido al efecto 2000 (la incapacidad de los ordenadores más antiguos para distinguir entre el año 1900 y el año 2000). Llegado el Año Nuevo apenas se detectaron problemas, pero por el temor generalizado se llevaron a cabo a escala global importantes actualizaciones de los sistemas informáticos del mundo empresarial.

HotDatesHotRates.com se convirtió en uno de los primeros sitios web en ofrecer "existencias sobrantes" –espacios para reuniones y habitaciones de hotel– normalmente con poca antelación y con descuento.

En septiembre de 1999 seeUthere.com lanzó uno de los primeros productos de proveedor de servicios de aplicación para la planificación de eventos (alquilando aplicaciones alojadas en la Web, frente al software instalado directamente en un ordenador), con un sistema de pago de cuotas de inscripción que funcionaba con tarjeta de crédito. Casi al mismo tiempo, Evite.com presentó un sitio web centrado en el consumidor, que luego fue comprado por Ticketmaster.

2000
En el 60% de los hogares estadounidenses había al menos un ordenador.

El gusano/virus Love Bug infectó a 2,5 millones de PCs, causando daños y perjuicios económicos en torno a los 8,7$ mil millones.

Los proveedores de servicios de aplicación, alimentados por los fondos de capital de riesgo, irrumpieron en el campo de la organización de eventos y reuniones. Algunas de estas empresas no sobrevivirían el estallido de la burbuja de los punto com en 2001.

Se celebró ExpoExchange, la primera feria de muestras virtual.

SpotMe presentó su dispositivo móvil de networking en Londres, que permitía a los asistentes visualizar las imágenes y los datos de contacto de la gente que se encontraba dentro de un radio de 10 metros. Luego se agregaron otras funciones que permitían a los usuarios obtener información sobre sesiones y listas de asistentes, así como para realizar votaciones y encuestas, entre otras. Fue el precursor de muchas de las aplicaciones móviles para eventos disponibles actualmente.

GetThere Direct Meetings introdujo la primera herramienta online de reservas para grupos. Le siguieron en 2003 otras herramientas de reserva de bloques de habitaciones, como Groople y Hotel Planner, sobre todo para reuniones pequeñas.

El Consejo para la Industria de las Convenciones implementó la iniciativa de APEX (intercambio de prácticas aceptadas), que estableció las primeras recomendaciones para el sector de congresos y reuniones.

2001
Apple presentó el iPod, que luego se convertiría en el reproductor MP3 más popular de la historia, lo que instigó a su vez cambios radicales y disruptivos en la industria de la música.

Se lanzó Wikipedia, el sitio web de referencia más grande y popular del mundo. Actualmente contiene más de 17 millones de artículos redactados de forma colaborativa por voluntarios de todo el mundo.

El uso de herramientas online colaborativas y para reuniones, tales como WebEx y PlaceWare (ahora Windows LiveMeeting) experimentó un fuerte repunte después de los ataques terroristas del 11 de septiembre en Nueva York.

El 12 de noviembre, Uthere.com y TRX ResAssist presentaron los primeros productos online para la reserva en tiempo real de pasajes de avión para grupos.

StarCite lanzó la primera herramienta bidireccional alojada en la Web para peticiones de propuestas en tiempo real para salas de reuniones y habitaciones de hotel.

Un creciente número de turistas de negocios utilizaba sitios web de viajes, como Expedia (lanzado en 1996), Travelocity (1996) y Orbitz (2001), entre otros, para buscar alojamiento hotelero barato. Las reservas "fuera del bloque" crearon problemas para los organizadores en forma de cancelaciones. Para combatir el problema, Hilton lanzó en 2004 su Programa de Identificación de Reservas para Grupos, lo que permitía a los organizadores a comparar listas de inscripciones con las reservas de hotel y, de este modo, saber a ciencia cierta quiénes de los asistentes iban a alojarse en qué hotel.

2002
Hyatt presentó E-mmediate Meetings, una herramienta online para reservas, diseñada para reuniones pequeñas. De ésta surgió E-mmediate Response, que ofrecía por primera vez una conexión bidireccional en tiempo real entre un sitio web de peticiones de propuestas (en este caso StarCite) y el sistema de reservas de un hotel.

Se desarrollaron herramientas de networking alojadas en la Web para los asistentes a las reuniones y los eventos. La primera fue Rio, desarrollada por Columbia Resource Group. Fue seguida por IntroNetworks y Smart Event de ExpoExchange. Similares a las redes sociales, estas herramientas ayudaban a los asistentes a encontrar a gente con intereses afines en las reuniones y los eventos. Fueron los precursores del sector de congresos y reuniones de Facebook y otros sitios web sociales.

Las empresas tecnológicas son las primeras en utilizar web logs móviles (MoBlogs) en el sector de congresos y reuniones.

2003
Intel incorporó el Wi-Fi (wireless internet receiving capability) en su procesador Centrino, lo que abrió la puerta a la rápida adopción de Internet inalámbrico en los años venideros.

Se desarrollaron unas normas para servicios Web, lo que hizo que fuera mucho más fácil para distintos programas online compartir datos vía APIs (interfaces de programación de aplicaciones). Esto permitía desarrollar más fácil y rápidamente bases de datos y software online.

En mayo, el volumen de SPAM de correo electrónico excedió por primera vez el de correos legítimos.

Se desarrollaron y se afinaron varios programas de gestión estratégica de reuniones (conocidos en aquel entonces como "productos de consolidación").

Intellibadge fue la primera empresa en utilizar la RFID (identificación por radiofrecuencia) para hacer un seguimiento del público en la zona de exposición o las salas de reuniones de los eventos de la IEEE.

Más de 6.000 hoteles instalaron el Wi-Fi (fidelidad inalámbrica), o acceso de alta velocidad a Internet.

APEX presentó su primer producto (el glosario online: http://glossary.conventionindustry.org/). Luego llegarían más productos (normas voluntarias) abarcando antecedentes de reuniones, perfiles web, peticiones de propuestas, alojamiento/inscripción y reuniones sostenibles.

2004
Google indexó más de ocho mil millones de páginas en la Web.

Nació Facebook (solo para estudiantes de Harvard).

El volumen de reservas online de Hilton Hotels excedió por primera vez el de sus centros de llamadas.

PlanSoft y SeeUThere, dos de los proveedores más punteros de tecnología para eventos, se fusionaron para crear OnVantage.

2005
Se estrenó YouTube, el primer sitio web para compartir videos, que desde entonces se ha convertido en uno de los sitios más populares de la Web. En 2010, YouTube utilizó más ancho de banda que toda la Web en 2000.

Las dos empresas más veteranas en el sector del desarrollo de software para reuniones (Peopleware y Amlink) se fusionaron bajo la marca Amlink.

2006
Se lanzó Twitter, el sitio de microblogs con un máximo de 140 caracteres por mensaje.

En mayo, iTunes celebró la descarga del milmillonésimo archivo.

La industria de los eventos empezó a utilizar la tecnología Web 2.0 (que luego se llamaría "medios sociales"), incluyendo blogs, blogs de vídeos y wikis (sitios web interactivos).

Se fusionaron los dos principales proveedores de tecnología para reuniones, OnVantage (el resultado de la fusión entre PlanSoft y SeeUThere) y StarCite (el resultado de la fusión entre este último, b-There y RegWeb).

Los proveedores de tecnología de telefonía móvil, como LogOn, desarrollaron productos para reuniones, incluyendo una variedad de herramientas como directorios de productos, funciones de networking, agendas y sistemas interactivos de votación que funcionaban vía teléfonos móviles normales.

2007
Con el lanzamiento del iPhone en junio, Apple revolucionó el sector de la telefonía móvil. En los próximos cuatro años y medio se vendieron más de 74 millones de unidades.

Google lanzó GoogleDocs, con hojas de cálculo y procesadores de textos gratuitos alojados en la Web.

La Conferencia South by Southwest (SXSW), celebrada en Austin, Texas, fue la punta de inflexión de la popularidad de Twitter, cuyo volumen de "tuits" aumentó de 20.000 a 60.000 al día (en 2011, se alcanzaron los 200 millones de "tuits" al día).

2008
Amlink se fusionó con Certain Software el 1 de abril.

Active Networks adquirió dos de las principales empresas de inscripción online, RegOnline y WindgateWeb.

2009
La televisión digital se convirtió en el estándar de emisión en los EE.UU. y en otras partes del mundo, abriendo así la puerta a servicios de televisión alojados en la Web.

Seasite.com lanzó la primera herramienta alojada en la Web de peticiones de propuestas, diseñada para ayudar a los profesionales del sector a encontrar a proveedores de cruceros para el sector de congresos y reuniones.

2010
Apple presentó el iPad, otra revolución del ordenador portátil tipo "tableta".

Había 4,7 mil millones de abonados a un servicio de telefonía móvil (dos de cada tres personas en el planeta). Había más gente con un teléfono móvil que personas con acceso a agua corriente o a un cepillo de dientes.

Skype desarrolló las videoconferencias de alta definición. Esto permitía a los organizadores acceso a una señal de vídeo de calidad y gratuita para el vídeo streaming de sus eventos.

Hubo un gran auge de aplicaciones móviles diseñadas específicamente para eventos y ferias, que coincidió con la aparición de cientos de empresas nuevas que proporcionaban este tipo de servicios.

2011
En octubre, Amazon lanzó la tablet Kindle Fire/eReader de la que logró vender más de 25 millones de unidades antes de finales de año.

Había más de 600.000 de aplicaciones para el iPhone/iPad y más de 400.000 para Android.

Se descargaban diariamente más de 5,6 millones de aplicaciones para el iPhone.

Había más de 800 millones de usuarios de Facebook (más de una de cada 10 personas en el planeta).

Se desataron grandes revoluciones en Oriente Medio gracias a los teléfonos móviles y los medios sociales.

Durante las vacaciones de Navidad se descargaron 1,2 mil millones de aplicaciones.

La encuesta FutureWatch 2011, entre otras, indicó que más del 80% de los profesionales del sector de congresos y reuniones utilizaba un teléfono inteligente u otro dispositivo móvil en su trabajo. Sin embrago, un porcentaje de organizadores relativamente bajo (el 9%) había utilizado aplicaciones móviles para sus propias reuniones.

Se celebró la primera "cata de vinos virtual" en Camp Europe, utilizando Google Hangouts (un producto gratuito para realizar videoconferencias desde múltiples lugares). A los asistentes en el lugar principal en Londres, y a los que se encontraban en Polonia y Suecia, se les proporcionó el vino a catar. Por medio de esta herramienta gratuita para video conferencias, los asistentes en todos los lugares escuchaban/veían al anfitrión describir el vino, mientras inspeccionaban, olían y cataban cada vino. Los asistentes utilizaron los cinco sentidos.

2012
Active Networks compró StarCite. Las fusiones anteriores en las que estuvieron implicadas estas dos empresas incluyeron algunos de los principales pioneros de la tecnología para el sector de congresos y reuniones –RegWeb, b-there, seeUthere, PlanSoft, OnVantage, RegOnline y WingateWeb–, lo que constituyó otro paso en la consolidación de los líderes en el sector.



e.     Tendencias actuales y futuras de la computación.
A continuación se enlistan las principales areas que se desarrollan actualmente dentro del campo de la computación. Los nombres de las categorías corresponden a los más usados en el medio sin con I. Computación aplicada:
Son actividades en las que se aprovechan de manera práctica los elementos teóricos de la computación y otras disciplinas.
a) Procesamiento de señales
o    Procesamiento de imágenes: son técnicas para la manipulación numérica de imágenes (fotografías, imágenes de satélite, radiografías, tomografías, etc.). Entra las principales aplicaciones destacan restauración, "ecualización" de colores, efectos especiales, "doping", filtrado, suavizado y reconocimiento de patrones.
o    Procesamiento de señales: son técnicas para la manipulación numérica de señales (sonido, señales sísmicas, de radar, de sonar, etc.). Entre las principales aplicaciones destacan análisis del espectro de frecuencias, filtrado, compresión de datos, efectos especiales y síntesis de señales.
b) Bases de Datos: son técnicas para el manejo eficiente de datos (actualización, búsquedas, emisión de reportes, etc.). Se aplican en nominas, inventarios, control escolar, en el proyecto Genoma, en archivos policiacos y en la Supe carretera de la Información.
c) Redes de Computadoras: es la aplicación de la tecnología (hardware y software) para la interconexión de computadoras y compartir datos y recursos.
d) Inteligencia artificial: son programas para resolver problemas que usualmente requieren de inteligencia.
o    Sistemas expertos: es software que obtiene conclusiones al aplicar reglas de inferencia lógica a información concentrada en una base de datos (conocimientos recabados de un experto humano). Se aplican en sistemas financieros, de crédito, de análisis de datos científicos, etc.
o    Lógica difusa: son algoritmos que aplican los principios de la lógica difusa (lógica de estados intermedios entre cierto y falso) para resolver problemas. Se usa principalmente en aplicaciones de control.
o    Planeación: son técnicas para la elaboración de planes de acción y su ajuste automático durante la ejecución.
o    Representación y "comprensión" del conocimiento: es el desarrollo de esquemas apropiados para trasladar conocimientos en objetos manipulables y comprensibles por la computadora.
o    Heurística: es la resolución de problemas mediante la exploración de todos los posibles caminos hasta encontrar aquellos que conduzcan a la solución.
o    Aprendizaje automático: son métodos por los cuales un sistema reajusta sus parámetros para mejorar sus actividades.
o    Reconocimiento de patrones: es la identificación de los elementos que aparecen en un marco de referencia (una fotógrafa, y una señal, etc.).
o    Procesamiento de lenguaje natural: es la adecuada interpretación del lenguaje utilizado de manera corriente por las personas.
e) Simulación: es la solución numérica del modelo matemático de un fenómeno para observar su comportamiento. La simulación puede ser didáctica o científica. Entre las principales aéreas que recurren a la simulación estan la Física, la Astronomía, la Biología o la industria.
f) Biocomputacion: se han aprupado en esta categoría todas aquellas técnicas que tienen un origen inspirado en la Biología.
o    Redes neuronales: son algoritmos numéricos que simulan el comportamiento de redes de nodos adaptables que, mediante un entrenamiento adecuado, pueden resolver problemas sin requerir de un procedimiento explicito para solucionarlos. Se ocupan en clasificación y compresión de datos, reconocimiento de patrones, etc.
o    Algoritmos genéticos: son algoritmos de que aplican el concepto biológico de selección natural para elegir la mejor solución de un conjunto de soluciones posibles. Se aplican en problemas de optimización.
o    Autómatas celulares: es la simulación de un mundo bidimensional que contiene una distribución de células cuya configuración cambia en cada instante siguiendo reglas que se aplican al vecindario de cada célula. Se utilizan en problemas de interacción celula-celula, modelos de color de piel en animales, aspectos de la generacion de formas, etc.
o    Vida artificial: son tecnicas para simular "entes" que viven en la computadora y de los que solamente se definen las reglas minimas de comportamiento (codigo genetico).
o    Evolución artificial: son técnicas que aplican los conceptos de evolución y selección natural para definir un "ser" primitivo que a través de reproducción y mutación , se convierte en el más apto para resolver alguna tarea.
g) Computación grafica (infografía o computación visual).
o    Traficación: son algoritmos para el despliegue grafico de datos.
o    Visualización: son técnicas para la representación visual de los resultados de simulaciones (normalmente en tercera dimensión).
o    Realidad virtual: es la estimulación adecuada de los sentidos humanos para provocar la percepción de un ambiente inexistente; implica interacción con el usuario y requiere complejos elementos de simulación, visualización e incluso inteligencia artificial. Se utiliza como diversión, en mandos de tele presencia, para el entrenamiento de pilotos y en el estudio de objetos microscópicos.
o    Diseño: son técnicas para facilitar la elaboración de planos, prototipos o documentos. Por ejemplo, hay diseño arquitectónico, industrial, editorial o artIsatico.
o    Interfaces: es la investigación y desarrollo de programas o dispositivos para mejorar la interacción entre hombre y maquina.
h) Applications interdisciplinary.
o    Física computacional: es la aplicación o de la computadora para el estudio, resolución de problemas, simulación y enseñanza de los fenómenos físicos.
o    Música computacional: es la aplicación de la computadora para el análisis, procesamiento y síntesis de sonidos y estructuras musicales.
o    Matemáticas computacionales: es la aplicación de la computadora para el estudio, resolución de problemas, simulación y enseñanza de problemas matemáticos.
o    Bioinformatica: es la aplicacion de la computadora en la investigación y simulación en ciencias biológicas.
o    Geometría computacional: son algoritmos para la solución de problemas geométricos.
o    Multimedia: es el uso del equipo de cómputo para integrar audio, video, texto y fotografía para una mejor comunicación de ideas.
o    Tutoriales: es el desarrollo de software para apoyar la enseñanza de ciertas disciplinas.
II: Metodología de la computación:
Es el estudio y desarrollo de técnicas y métodos que conviene seguir al desarrollar aplicaciones de computación.
a) Estilos de programación
o    Procederla: tipo de programación que requiere la definición precisa de cada paso para la resolución de un problema. Lenguajes de este tipo son Pascal, C, BASIC, ensamblador Fortran y COBOL.
o    Declarativa (y lógica): tipo de programación que requiere la declaración de premisas para que el lenguaje aplique las leyes de la lógica matemática y obtenga las conclusiones que resuelven un problema. Lenguajes de este tipo son Prologa, Parlo, Escher y Gadel.
o    Funcional: tipo de programación que se basa en la composición de funciones y el uso de listas como estructura de datos básica. Por ejemplo, el lenguaje Lisp.
o    Orientada a objetos: es un método de programación que se basa en determinar los objetos que intervienen en un sistema y el comportamiento e interacción entre ellos. Lenguajes de este tipo son Smalltalk, C++, Actor, Eifel, Simula.
b) Ingeniero/a de software: es la aplicación de técnicas de ingeniería en la sistematización y organización de la producción de software a gran escala.
c) Análisis y diseño de sistemas: son métodos para el estudio y planeación de sistemas de información óptimos.
d) Computación simbólica: es el desarrollo de tecinas y algoritmos para el procesamiento de datos no numéricos. Por ejemplo, lógica de predicados, procesamiento de listas, algebra, cálculo, etc.
e) Redes de computadoras: es el estudio y desarrollo de los algoritmos para la transmisión segura de datos a través de redes, por ejemplo, diseño de protocolos, compresión de datos, recuperación de errores, etc.
f) Inteligencia artificial: es el estudio y desarrollo de técnicas para simular inteligencia en las computadoras.
g) Biocomputacion: es el estudio y desarrollo de técnicas basadas en conceptos biológicos.
h) Visualización: es el estudio y desarrollo de técnicas para la representación visual de datos.
III. Computaciónon teorica:
Son los fundamentos teóricos de las actividades que se desarrollan en computación.
o    a) Algoritmia Análisis de algoritmos y complejidad: es el estudio de la eficiencia de los algoritmos y la complejidad involucrada en los cálculos.
o    Compresión de datos: es el estudio y desarrollo de algoritmos para reducir el número de bits necesarios en la representación de información.
o    Criptografía: es el estudio y desarrollo de algoritmos para la codificación y decodificación de datos.
o    Algoritmos eficientes: es el estudio de las modificaciones matemáticas que pueden hacerse a los algoritmos para reducir el tiempo de cómputo, sin alterar su objetivo.
o    Algoritmos paralelos: es el estudio y desarrollo de algoritmos para la solución de problemas utilizando varios procesadores que trabajen al mismo tiempo en un mismo objetivo.
o    Algoritmos distribuidos: es el estudio y desarrollo de algoritmos para la solución de problemas repartiendo los objetivos en diferentes procesadores.
o    Supercopita (computo intensivo): desarrollo de algoritmos que aprovechen mejor la capacidad del supercopita (procesamiento vectorial, paralelismo, "pipelining", etc.).
b) Estructuras para el manejo de información.
o    Estructuras de datos: análisis, desarrollo y optimización de estructuras para el almacenamiento y manejo de datos en memoria primaria.
o    Estructuras de archivos: análisis, desarrollo y optimización de estructuras para el almacenamiento y manejo de datos en memoria secundaria.
o    Bases de datos: análisis, desarrollo y optimización de técnicas para el manejo de grandes cantidades de datos interrelacionados, evitando redundancias y garantizando la seguridad e integridad de los datos.
c) Investigación de operaciones (optimización): estudio de las técnicas para reducir al mínimo el costo de las operaciones que se requieren para resolver un problema.
d) Desarrollo de lenguajes de programación: definición de la sintaxis y semántica de lenguajes que resulten útiles en la resolución de problemas específicos.
e) Compatibilidad (teoría de la computación): es el estudio de las maquinas teóricas que pueden calcular funciones computables (funciones que pueden calcularse por medio de algoritmos sin importar como se exprese o se implemente).
f) Autómatas
o    Teoría de autómatas: estudio de redes de nodos cuya trayectoria cambia en cada instante de acuerdo a ciertas reglas.
o    Compiladores: desarrollo de autómatas para la traducción de lenguajes teóricos de alto nivel a lenguajes de bajo nivel.
g) Sistemas operativos: desarrollo de sistemas para el control a bajo nivel de los recursos de la computadora.
h) Arquitectura de computadoras: diseño teórico de las estructuras para almacenamiento de datos y las reglas para su manipulación.

IV. Aplicaciones de control:
Es el uso de la computadora en el gobierno de maquinas.
a) Electrónica digital: tecnología basada en componentes electrónicos que controlan y procesan pulsos binarios. Su funcionamiento se basa en la lógica binaria.
b) Microprocesadores: diseño y construcción de sistemas electrónicos basados en microprocesadores y programados en ensamblador.
c) Teoría del control: estudio teórico del comportamiento de sistemas físicos y los elementos para su gobierno.
d) Robótica: diseño y construcción de mecanismos controlados por computadora, capaces de desarrollar actividades físicas.
e) Automatización: diseño y construcción de dispositivos para el control por computadora de maquinas existentes.



TENDENCIAS TECNOLÓGICAS DE FUTURO.
Gags: croad computan, ordenador de ADN, ordenador cuántico, tecnología HUD, web social, GPS, tecnología en coches, gafas de da, pulseras inteligentes, playeras GPS, pantalla oled, nace, raid

Tecnologías futuristas actuales

Aunque parecen salidas de las películas de ciencia ficción, sin embargo estan siendo utilizadas en la actualidad por universidades, gobiernos y todo tipo de empresas. Son las tecnologías más futuristas, pero sin embargo totalmente operativas a día de hoy.
Hacemos un breve repaso.
http://www.gitsinformatica.com/imagen/tendencias%20haptico%20rrss%20p.jpgAptico en redes sociales
Un dispositivo aptico es un robot que tiene la capacidad de devolver fuerza al usuario en función de sus movimientos en un mundo virtual (entornos de realidad virtual, RV), permitiendo simular tacto virtual en cualquier aplicación de computación gráfica.

Actualmente, se utiliza en medicina, defensa y robótica, sin embargo, ya está empezando a dar sus primeros pasos en ámbitos como tele operación y tacto remoto.

Su inclusión en las redes sociales y la comunicación a distancia llegará en breve, lo que permitirá tener experiencias y conversaciones más realistas con personas que se encuentren en otra localización física.

http://www.gitsinformatica.com/imagen/tendencias%20real-3d%20p.jpgSoftware que convierte lo real en virtual
Ya está siendo creada en el MIT (Instituto Tecnológico de Massachusetts) y parece de pura ciencia ficción.

Es una superficie capaz de recrear en 3D y en tiempo real aquello que capta una cámara conectada al sistema.

Las cámaras capturan los objetos en movimiento y en 3D. Un ordenador procesa esos datos 3D y los transmite a una superficie con cilindros móviles que generan una réplica del objeto al instante.

Dentro de poco, tendremos estas impresoras a nuestra disposición, creando juguetes, piezas y modelos reales con nuestras manos de manera remota.

http://www.gitsinformatica.com/imagen/tendencias%20ia%20juegos%20p.jpgInteligencia Artificial: «Hablar» con los videojuegos
Actualmente, el mundo de la Inteligencia Artificial y los videojuegos se une en la generación automática de contenidos.

Por ejemplo, en el juego de Dar CRL, la Inteligencia Artificial ha sido capaz de generar de manera automática la vegetación del juego, sin necesidad de tener a un diseñador replicando y diseñando cada uno de los vegetales que aparecen.

Sin embargo, no estamos muy lejos de ser capaces de generar automáticamente conversaciones en los videojuegos, un avance increíble que dejaría que el jugador pudiera hablar con el juego y, sin texto predefinido, el videojuego creará la conversación en base a las preferencias del jugador.

http://www.gitsinformatica.com/imagen/tendencias%20teclado%20virtual%20p.jpgTeclados virtuales
Existen en el mercado desde hace algún tiempo, pero aún son pocos los usuarios que lo utilizan debido a la poca fiabilidad de sus movimientos.

Se trata de generar un teclado virtual mediante una proyección virtual, de manera que podamos escribir sobre cualquier superficie, y que un sensor recoja los movimientos de nuestras manos con teclado.

 

http://www.gitsinformatica.com/imagen/tendencias%20robot%20servicio.jpgRobots de servicio
Existen muchos robots de industria que ayudan en las labores de construcción y creación de máquinas.

Tanto en empresas, defensa, etc. estos dispositivos ayudan a las labores de las personas.

Estamos muy cerca de que estos robots pasen a ser robots de servicios, que puedan ayudarnos a realizar acciones diarias como cargar maletas, limpiar.

También existen ya robots que asisten a personas con necesidades o a mayores.

http://www.gitsinformatica.com/imagen/tendencias%20generador%20tridimensional%20p.jpgGeneradores de modelos tridimensionales
Ya existe el inicio de investigaciones que pretenden poder modelar en la realidad materia física (plastilina, arcilla, etc.) y, de manera automática.

Gracias a captura de movimiento y análisis visual, se genera el modelo 3D en el ordenador.

Sin necesidad de replicar el trabajo o de aprender miles de herramientas de modelado. Microsoft se encuentra trabajando en esta tecnología que utiliza las bondades de Conectó.

http://www.gitsinformatica.com/imagen/levitacion%20cuantica.jpgLevitación real
Levitaron, un curioso aparato con el que se puede lograr la levitación de una pequeña peonza mientras gira en el aire, ya se encuentra en el mercado.

Se basa en un imán en forma de anillo que proporciona un campo magnético en forma de copa, y un núcleo central que es también un imán.

Un proyecto del MIT Media Lob llamado Serón también lograba la levitación gracias al magnetismo. En este caso la levitación magnética está controlada por ordenador.

No obstante, el otro gran apartado en cuanto a levitación se refiere viene de la mano de la mecánica cuántica, de la comunidad científica ya se está encargando de profundizar. La levitación cuántica tiene un amplio futuro ante sí. 
 
http://www.gitsinformatica.com/imagen/tendencias%20movil%20movimiento.jpgMóvil adaptado al movimiento
Actualmente, se está investigando en el ámbito Universitario la capacidad de determinar la acción de un usuario en función de los movimientos que realiza con el móvil.

Analizando los datos del acelerómetro integrado en los dispositivos móviles, son capaces de evaluar si el sujeto está durmiendo, corriendo, andando o estático.

Esto podría proporcionar la ventaja de adaptar las aplicaciones y funciones del móvil en función de lo que esté haciendo el usuario en cada momento.

Por ejemplo, ponerte música si detecta que estás corriendo, silenciarte el móvil si sabe que estás durmiendo y un largo etcétera de posibilidades adaptadas al usuario. Es decir, teléfonos más inteligentes.
 
Tendencias en Tecnología empresarial del futuro: EFICIENCIA

En estos tiempos de cambios acelerados, en gran medida impulsados por los avances tecnológicos, es muy importante para los empresarios y directivos de cualquier área funcional, escuchar la voz de los investigadores más avanzados en tecnología.

Conocer las tecnologías del presente, pero, sobre todo, conocer cuáles son las líneas de investigación y las expectativas de evolución de esas tecnologías que puedan afectar a nuestra empresa, son elementos clave para orientar correctamente la gestión sin que, además, haya demasiado tiempo para la adaptación a los cambios dada la velocidad con que ocurren.

En la actualidad, toda la información la estamos gestionando mediante los actuales ordenadores programables (que funcionan en base a instrucciones expresas previas), pero el crecimiento exponencial de esa información a partir de datos no estructurados ni certificados, apunta claramente a que esos ordenadores no serán capaces de discriminar, tratar, almacenar, seleccionar, en definitiva, gestionar, correctamente la información en los próximos años.

“El futuro”, según decía Salvador Martínez, IBM Global Managing Director, “pasa por ordenadores tipo Watson”, y ese futuro está más cerca que nunca (esto lo digo yo), porque hoy se puede leer en The New York Times, que IBM pretende llevar la inteligencia de su superordenador Watson a la nube para animar a la creación de aplicaciones.

El nuevo proyecto de IBM consistirá en llevar la inteligencia de este superordenador a la nube por “una pequeña fracción del coste anterior” y “con más del doble de potencia”. De este modo, los desarrolladores podrán acceder a su API y toda una serie de herramientas con las que crear sus propias aplicaciones y explorar nuevas soluciones que faciliten la vida de los usuarios. Este servicio cloud incluirá, además, material educativo e incluso una tienda de software.

La “sangre electrónica” de IBM

Pero IBM tiene más investigaciones abiertas, que serán claves para la tecnología empresarial del futuro. Una de ellas es la creación de ordenadores energizados y enfriados por líquido, tal y como lo hace el cerebro humano.

Hace unas semanas, el gigante azul dio a conocer un prototipo de un nuevo ordenador inspirado el cerebro humano. Concretamente, un par de científicos de la compañía buscan la forma de reducir el tamaño de los superordenadores para ponerlos encima de tu escritorio. La clave está en un líquido capaz de transportar energía y refrigerar a la vez. Llega la “sangre electrónica”.

“Queremos instalar un superordenador en un terrón de azúcar. Para hacer eso, necesitamos un cambio de paradigma en la electrónica”. Con esta declaración de intenciones, el Doctor Bruno Michel simplifica la explicación del proyecto en el que está trabajando junto al Doctor Patrick Ruch para IBM.

La idea es llevar un superordenador que hoy ocuparía la mitad de un estadio a un escritorio en el año 2060. ¿Cuál es la clave para reducir tanto el tamaño de la máquina? La palabra clave es “eficiencia”.

http://www.gitsinformatica.com/imagen/tendencia%20tecno%20futuro.jpgActualmente, los ordenadores utilizan tan sólo el 1% de su volumen para procesar información. El resto del espacio es utilizado para alimentar y refrigerar el ordenador.

Por otra parte, según los científicos, el cerebro humano es capaz de utilizar tan sólo el 10% de su volumen para esas tareas, utilizando el resto para procesar una gran cantidad de información, convirtiéndose en una máquina de cálculo perfecta situada en un espacio pequeño y que utiliza sólo 20 vatios.

Según Michel y Ruch, todo pasa por encontrar un líquido que haga las veces de ‘sangre electrónica’. Un líquido que permita transportar la energía hasta los chips del ordenador y que se lleve el calor generado.

De esta forma, se podría reducir el volumen de un ordenador, ya que no sería necesario ocupar grandes espacios con dispositivos para refrigerar los componentes electrónicos y, además, los chips se podrían colocar en bloques.

Sin embargo, actualmente esta última idea es impensable debido al calor que se genera en el interior de un ordenador, un líquido que pasara a través de pequeños tubos entre cada uno de los chips haría posible reducir considerablemente el volumen de una máquina.

IBM ya trabajó en este sentido con el sistema Aquasar, pero ahora busca la evolución con un líquido que, además, sea capaz de transportar energía hasta los componentes del equipo. Al igual que la sangre transporta azúcar para llevarse después los residuos, IBM trabaja con el vanadio que, en estado líquido, sería cargado con electrodos y bombeado hacia el ordenador, hasta donde llevaría la energía necesaria para que sus componentes funcionen.


La tecnología empresarial del futuro

En este sentido, la compañía HP también está trabajando duro para sacarle brillo a su bola de cristal. Para ello, se ha codeado con los mejores visionarios del mundo empresarial, a nivel mundial, líderes de distintas industrias y los mejores expertos en tecnología para encontrar los aspectos clave para que una empresa no sólo supere los retos futuros, sino que triunfe en el año 2020 y más allá.

Este esfuerzo realizado también por sus empleados, clientes y partners a nivel mundial pertenece al nuevo proyecto de la compañía Enterprise 20/20. Se trata de un informe completo donde se cubren todos los factores a tener en cuenta. Este análisis ha desvelado, también, cuáles serán las necesidades de las empresas y las personas en el años 2020 y el papel que tendrá la tecnología.

El proyecto lo dio a conocer Enrique Solbes, vicepresidente de HP, en el XXVII Encuentro de las Telecomunicaciones celebrado el pasado mes de septiembre en Madrid. Las tendencias que pronostica:
-Surgirá una potente clase media en países emergentes como China, India, Brasil y Rusia a la expansión de las megalópolis, con un 60% de la población mundial habitando en ciudades.

-Las conexiones entre personas, máquinas y lugares serán cada vez más intensas y fluidas. “La tecnología trabajará para nosotros, ayudando a maximizar unos recursos escasos, a procesar ingentes cantidades de información y a transformarla en conocimiento útil para las personas y las empresas”, destacó Enrique Solbes.

-El movimiento Big Data continuará su marcha imparable: la cantidad de datos en el mundo se incrementará un x44 respecto a los del 2009, alcanzando un universo digital de 35 ZB en 2020.

-Contaremos con un hardware más inteligente y los data centers estarán automatizados completamente.

-La seguridad del mundo digital será una de las principales preocupaciones. Por ello, los sistemas de seguridad emplearán la inteligencia proactiva, identificando los riesgos de ataque antes que cualquier humano.

-En las empresas: las nuevas capacidades de análisis -a una velocidad y escala inimaginable hoy- permitirán mejorar el conocimiento sobre los clientes y anticipar los cambios en el mercado.

-Aparecerá el marketing en tiempo real y el conocimiento desde la información.

-Uno de los aspectos que más va a evolucionar será la forma en la que trabajamos y los Recursos Humanos, todo evolucionará hacia un rol de gestión en comunidad.

-La generación de los ’Millennials’ (no han conocido el mundo sin Google) será la que mayor impacto tenga en la forma de trabajar y dé forma al empleado de 2020: ágil, conectado y móvil.

-Otro cambio a tener en cuenta será la formación de equipos de negocio integrados por los mejores profesionales, no pertenecerán a una empresa concreta, sino que se unirán en clusters para ofrecer un producto o servicio al mercado.

La adaptación necesaria

Uno de los problemas principales a los que se enfrentarán tanto las medianas como las grandes empresas en el futuro, será al incremento de la potencia, el almacenamiento y el ancho de banda disponible a través de la “nube” a un bajo coste.

Las compañías seguirán acumulando crecientes volúmenes de datos, procedentes de una gran variedad de fuentes cada vez a mayor ritmo, tendencia conocida como “Big Data”. Además, el aumento del uso del vídeo y las redes sociales como herramientas de comunicación también se expandirá entre las empresas. De hecho, estas tecnologías ya existen y mientras las nuevas tecnologías ya están probablemente emergiendo, serán las nuevas formas de aplicación de las actuales las que llevarán a un cambio radical en los modelos empresariales.

Hace un tiempo Carsten Bruhn, Vicepresidente Ejecutivo de Ricoh Europe, pronunció las siguientes palabras con las que nos quedamos:
“Las nuevas tecnologías por sí mismas no ayudarán necesariamente a las empresas a mantenerse al día con los cambios necesarios para sobrevivir y crecer. Son los procesos empresariales que hay detrás de la tecnología los que deben ser revisados y optimizados para añadir un valor empresarial real. En el centro de este cambio, una empresa debe asegurarse de que sus procesos conectan a las personas con la información, permiten una mayor colaboración y alientan a compartir conocimientos. Los líderes empresariales tienen que elegir socios que les ayuden a implementar los cambios de un modo efectivo en el tiempo. Ya no es viable implementar las nuevas tecnologías simplemente para aprovechar las ganancias en eficiencia a corto plazo”.


Los móviles del 2020: bajo la piel y controlados por la voz y la mirada

El micrófono estará bajo la piel y la cámara será una lentilla. Todo funcionará con la voz, la batería durará semanas sin recargar y las redes 5G multiplicarán por 100 la actual velocidad. Así será, poco más o menos, los dispositivos que utilizaremos como móviles en la próxima década.

"Lo bueno y malo de aventurar cómo serán las cosas dentro de cinco o seis años es que siempre se podrá comprobar en el futuro si lo escrito en este reportaje era realmente correcto".

Curados en salud con semejante advertencia, los expertos en telecomunicaciones consultados por esta revista apuestan por dispositivos cada vez más potentes, con baterías de larguísima duración y con nuevos formatos de pantallas, ya sean virtuales o incluso arrugables.

El reconocimiento de voz será el sistema preferido de entrada de datos en el horizonte del año 2020 y sucesivos. Asusta pensar que el micrófono, el auricular y hasta las antenas podrán escamotearse bajo la piel, en un tinte de uña, en un pendiente o en cualquier prenda de vestir. Serán dispositivos weareables, que nos acompañarán a todas horas, silenciosamente con otros artilugios.

Las anteriores son algunas de las conclusiones tras un sondeo entre fabricantes de dispositivos y redes. Seis años puede ser un plazo relativamente corto, pero tratándose de tecnologías móviles resulta casi una eternidad.

Echando la vista atrás, en ese mismo plazo de tiempo acababa de nacer el iPhone, un prodigio que dejó obsoleto todo lo anterior. Las aplicaciones móviles o el cloud entonces eran terrenos apenas sin explorar. Tampoco existían Whatsapp, ni Twitter ni otros prodigios que han cambiado radicalmente la forma en la que nos comunicamos.

Formas inauditas de movies

http://www.gitsinformatica.com/imagen/tendencias%20movil%20futuro.jpg
Parece probable que el concepto del smartphone tal y como ahora se entiende, el mismo que nos acompaña de forma perenne en el bolsillo, pronto tomará otras formas. Ya lo hace materializado en relojes (smartwatch) o gafas (Google Glass) y en los próximos años cambiará su anatomía para encarnarse en empaste molar, un tatuaje o un cubre botón de la camisa.

Las pantallas de cristal actuales serán una antigualla en cuanto los polímeros electroluminiscentes demuestren sus capacidades. Son legión los expertos en prospectiva que pregonan la eclosión de las holografías, de forma que la imagen y el sonido romperán sus actuales limitaciones técnicas para convertirse en lo más parecido a las apariciones de la princesa Leía de la película La Guerra de las Galaxias. No se hablará de pulgadas cuando se pueda interactuar sobre superficies luminosas flotando en el aire.

Eludir la ciencia ficción resulta complicado. La realidad aumentada madurará en los próximos años de tal forma que los usuarios del próximo lustro se acostumbrarán a convivir en los entornos virtuales y reales con absoluta naturalidad.

Los móviles y tabletas también derrumbarán la bíblica Torre de Babel al poder disfrutar de la traducción instantánea con ayuda de sus dispositivos, lo que rebajará la criticidad de conocer un segundo idioma para manejarse felizmente por el mundo.

A modo de ejemplo, Motorola Mobility -propiedad de Google- ha patentado un sistema de móvil escamoteado en el cuerpo humano donde el micrófono se oculta bajo la dermis del cuello -zona donde se puede captar la voz humana con la mayor calidad posible-. Lo más rocambolesco del invento es que el mismo micro podrá detectar las mentiras, a través de las variaciones y alteraciones nerviosas de los sujetos.

La telefonía móvil permitirá identificar a sus usuarios con la mayor eficacia y seguridad que ofrecen los pasaportes actuales. Las tarjetas de crédito también tienen la batalla perdida en cuanto los móviles ganan fuerza como medio de pago. Las llaves que abren las cerraduras de la mayoría de nuestras puertas también cederán su función a los celulares y sus hermanos. La voz o la retina serán los métodos más habituales para bloquear y desbloquear los móviles, sin necesidad de contraseñas.

Además, los móviles del futuro controlarán la salud de los usuarios, con chequeos en tiempo real. La capacidad de proceso de los microchips de 2020 evolucionará de la misma forma exponencial que lo ha hecho en el pasado. Algunos aventuran microprocesadores de 28 GHz, frente a los 2 GHz de los smartphones actuales.

Los usuarios podrán reproducir sus películas o series a través del smartphone para verlas en una televisión conectada o proyectada sobre cualquier superficie. Ni que decir tiene que el móvil de dentro de seis años gozará de la potencia de superordenadores actuales, para así gestionar en tiempo récord todo el conocimiento disponible en Internet y ponerlo a disposición de los usuarios.

Los teléfonos móviles de 2020, o como quieran que se llamen entonces, se comunicarán con todos los electrodomésticos del hogar y de la ciudad. Las smart homes y la smart cities hablarán el mismo idioma, en un Internet de las cosas que demandará conectividad de calidad y permanente.

Algunas estadísticas para el futuro

La gran mayoría de los objetos cotidianos estarán conectados entre sí, hablarán en su silencio digital, lo que permitirá dotar de inteligencia gran parte del entorno. Todo lo anterior conlleva que el tráfico de datos se multiplique por mil en los seis próximos años, lo que obligará a que las redes emprendan un salto a lo que será la telefonía 5G, según calcula Ericsson, compañía que también estima que en 2020 habrá más de 50.000 millones de dispositivos conectados -diez veces más que los actuales-, si bien la velocidad de conexión será hasta 100 veces más rápida a través de la telefonía 5G, aún huérfana de estándar.

La nanotecnología realizará nuevas conquistas en el negocio celular para revolucionar el concepto tradicional de los móviles. El silicio quedará obsoleto con nuevos materiales moleculares en los que los científicos llevan años trabajando. Los móviles no sólo multiplicarán la duración de sus baterías, sino que permitirán la recarga de las mismas en cuestión de minutos... o segundos. Los sistemas de alimentación energética inalámbrica permitirán que los dispositivos carguen sus baterías mientras reposan sobre la mesa o en la guantera del coche.



La próxima era tecnológica será la de los sensores y la hiperconexión global
La imparable penetración de la tecnología personal está llevando a la Humanidad a la "era de los sensores", un mundo hiperconectado en el que tan importante será la gestión de la identidad como la relación con las máquinas.

Así se ha puesto de manifiesto en Sherpa Summit, un encuentro sobre Internet y aplicaciones celebrado en Bilbao en Mayo de 2.013.

"Vivimos detrás de una pantalla, nos estamos volviendo zombis de los móviles", ha expresado el desarrollador de Firefox OS Guillermo López.
Y esa realidad se va a acentuar en los próximos años, según el ex consejero delegado de Apple John Sculley, quien ha apuntado que la humanidad está entrando en la "era de los sensores".

http://www.gitsinformatica.com/imagen/tendencias%20sensores%20movil%2000.jpgBasándose en datos de Cisco, ha explicado que al comienzo de la próxima década habrá 20.000 millones de dispositivos inalámbricos conectados —no sólo móviles, también cámaras o micrófonos— recopilando y generando datos.

Sculley ha apuntado mediante videoconferencia que se están gestando los bloques de construcción de una computación más móvil que tendrá capacidad para escuchar y comprender la información de esas numerosas fuentes.

En ese contexto aumentan las reservas sobre la privacidad y la seguridad de los datos personales.

El responsable de investigación y desarrollo de Paypal, John Lunn, ha resaltado que la vida física y la virtual tienen cada vez una mayor necesidad de conectarse y la identidad real de los usuarios es relevante.

"Nuestros datos son importantes porque las empresas sacan partido de ellos. Tenemos que preguntarnos qué vamos a recibir a cambio de ese regalo que les damos. (...) Si no compartes tu identidad te estás perdiendo algo importante, pero debes tener cuidado", ha alertado.

"Nos hemos abaratado, hemos regalado nuestra identidad a cambio de algo tonto. Somos los responsables de darle valor a nuestra identidad", ha recalcado por su parte la tecnóloga de Silicon Valley Chris Shipley.

Desde la Fundación Mozilla han defendido que no es necesario mirar muy lejos para innovar porque la web, que nació hace 20 años, es también una vía de futuro como plataforma móvil.

Según la responsable de la Fundación Mozilla, Mitchell Baker, la web es la tercera alternativa a los sistemas operativos de Apple y Google, que dominan el mercado, aunque ha reconocido que competir con ellos es "una labor muy difícil".

El sistema operativo móvil Firefox OS es abierto, ya que está basado en el lenguaje estándar HTML5, lo que le permite funcionar en los distintos dispositivos. Su objetivo es penetrar en mercados emergentes con teléfonos inteligentes asequibles.

"A veces se piensa que ya está todo hecho, pero van a entrar en el sistema —Internet— de dos mil a tres mil millones de persona en los próximos años. Y un entorno abierto es la mejor de las posibilidades (...) porque tener que pedir permiso y vivir en el sistema de otro te impone limitaciones", ha declarado Baker.

Abrir los teléfonos móviles

"La idea es abrir los teléfonos móviles", ha sostenido el desarrollador Guillermo López, quien ha destacado que la web está llena de posibilidades al ser "hackeable" y estar fuera de control de compañías.

Y como las aplicaciones (Apps) han cambiado Internet, otro ex directivo de Apple, Doug Solomon, ha compartido en Bilbao su fórmula mágica para crear aplicaciones que "no den asco".

Los primeros pasos han de ser analizar lo que a la gente le importa y lo que realmente desea, hablar en su mismo lenguaje y hacer prototipos gráficos del proyecto desde el primer día para corregir posibles fallos antes de que sea demasiado tarde.

Pero también se requiere eliminar cualquier obstáculo que se interponga en el camino del usuario —aspirar a la sencillez—, buscar inspiración fuera de la oficina e intentar que la "app" sea divertida: "Tratamos de conseguir que las personas cambien su vida" con las aplicaciones, ha sentenciado.

El responsable de Global Affaires y New Ventures de Telefónica, Javier Santiso, ha dicho en una entrevista que los mejores emprendedores españoles están mejor formados que los de Silicon Valley.

Aunque ha reconocido que las startups no son la solución a la crisis, ha destacado que en esta coyuntura hay "bendiciones disfrazadas" que sólo surgirán si se resetean los modelos establecidos.

Según la responsable de la Fundación Mozilla, un grupo de personas puede construir algo que tenga impacto, pese a que el resto del mundo pensara que era descabellado. La tecnología, la realidad lo atestigua, no tiene límites.

Tendencias futuras en Neurociencia e interacción Hombre-Máquina

http://www.gitsinformatica.com/imagen/interaccion%20humano%20computadora%20CHI.jpgSobre Neurociencia y Neurociencia, la revista New Scientist analizó el tema según las predicciones de los principales investigadores en el área y, si tienen razón, vamos a estar discutiendo, preocupándonos y debatiéndolo todo, desde la cirugía extrema hasta las implicaciones de la publicidad en implantes cerebrales.

Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes.

Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación.

Y el número óptimo de dedos en nuestras manos será 12,5.

¿Confundido? Esta es una visión sobre cómo será el mundo en 25 años según investigadores especializados en tecnologías de interacción humano-computadora (CHI).



Humanos y computadoras

http://www.gitsinformatica.com/imagen/bionic%2008.jpgNormalmente, CHI significa investigar formas de interacción entre humanos y los dispositivos electrónicos. Pero en una conferencia celebrada recientemente en Toronto, Canadá, fueron más allá.

Crearon el programa de una conferencia imaginaria celebrada en el año 2039, donde se predicen los retos que enfrentaremos con las computadoras del futuro, muchas de las cuales serán implantadas.

"Se supone que es una especie de parámetro en la investigación de la interacción humano-computadora, lo que realmente es aterrador o provocativo", dice Eric Baumer, de la Universidad de Cornell en Ithaca, Nueva York.

"Hay una gran cantidad de pensamientos retrospectivos sobre el pasado, pero no se ha pensado mucho acerca de lo que es el futuro hacia el cual creemos que estamos trabajando".

New Scientist utilizó el resumen de esta hipotética conferencia para crear una lista de preguntas que, en el año 2039, podrían hacerse nuestros descendientes cyborg.


Órganos Intercomunicados entre sí

En un resumen titulado "Mi hígado y mi riñón compararon notas", el investigador Michael Muller de IBM, con sede en Cambridge, Massachusetts, observa lo que pasa cuando los monitores implantados en los órganos internos de las personas, una red que él llama Arterionet, son capaces de compartir datos y acumular conocimientos para ofrecer consejos vinculados a la salud.

Su conclusión: "Aunque la mayoría de los usuarios se mostraron escépticos, muchos proponen características adicionales que podrían llevar a una mayor aceptación y cumplimiento de dichas recomendaciones".

Cabe pensar en cómo la gente podría lidiar con los consejos de salud de los monitores de órganos.

La tecnología portátil que registra actividad o estadísticas de salud ha ido ganando en popularidad desde que a principios de año investigadores implantaron tiras de silicona que generan energía en los corazones, pulmones y diafragmas de vacas, cerdos y ovejas vivas.

Muller dice que el mayor reto de la creación de Arterionet será averiguar cómo insertar una inteligencia artificial en un contenedor lo suficientemente pequeño y seguro.


Plantas con Facebook propio

Se crearán redes sociales para plantas que nos ayudarán a abastecernos de alimentos.
Para entender esta cuestión, necesita saber de Plantastic, una creación de Bill Tomlinson, y de sus colegas, en la Universidad de California en Irvine.

En su resumen, razonan que para que nuestro suministro de alimentos sea más sostenible, puede resultar lógico sembrar más frutas y verduras cerca de nuestra casa. Pero ciertos cultivos prosperan cuando son plantados en grandes cantidades o junto a alguna otra planta, lo cual no siempre es posible para el agricultor promedio.

La plataforma Plantastic le recomendará qué plantas funcionan mejor en su área y le dirá qué están sembrando en su vecindario.
Nanochips en las plantas enviarán los datos de nuevo al sitio. Esta información a su vez se podría utilizar para saber qué crece mejor en cierto tipo de ambiente.

El equipo de Tomlinson creó un estudio de ficción que observó diez huertos durante dos estaciones de crecimiento. El estudio sugiere que el uso de Plantastic aumentará el rendimiento de un 4% a un 12%.

Juliet Norton, estudiante graduada de Tomlinson, está trabajando en una versión inicial de como se vería el sistema en línea.


Vehículos autónomos inteligentes

http://www.gitsinformatica.com/imagen/coche%20autonomo.jpgAndreas Riener del Institute for Pervasive Computing en Linz, Austria, escribió una presentación que arranca con una visión audaz del futuro: "El primer vehículo sin conductor cruzó nuestras carreteras en 2019.

Ahora, 20 años después, es el momento de revisar cómo esta innovación ha cambiado nuestro comportamiento con respecto a la movilidad”.

Esta visión se basa en una tendencia real. Los automóviles sin conductor han sido objeto de titulares desde hace varios años. Es legal conducirlos en el estado de Nevada, y el automóvil sin conductor de Google ya acumula cientos de miles de kilómetros de práctica.

La contribución de Reiner es explorar cómo esto nos va a cambiar. Él predice que una vez que los robots puedan conducir en cualquier lugar, muchos de nosotros vamos a perder por completo el interés en conducir.

Muy pocos tendremos vehículos propios. Quienes lo tengan no perderán tanto tiempo equipándolos o manejándolos sólo por diversión. Las personas que todavía aman a los automóviles tendrán que hacerlo en "parques de recreación" especiales, donde puedan conducir de forma manual en un ambiente artificial.

"Si los vehículos del futuro son sólo un medio para llegar de A a B, esta cultura del automóvil podría perderse", dice.


Ideas implantadas

Varios colaboradores de CHI 2039 imaginan un futuro de implantes cerebrales.

Estudian si serán dispositivos que capturen las percepciones de cada uno de nuestros sentidos o si leerán directamente la información transmitida por nuestras neuronas.

Los científicos no se preguntan si los implantes serán una realidad sino cuándo lo serán, lo que podría generar oportunidades pero también retos.

Shachar Maidenbaum de la Hebrew University of Jerusalem, Israel, imagina dispositivos que registrarán nuestras experiencias del día a día y luego nos permitirán compartir nuestros recuerdos con otros, revolucionando tribunales, aulas y nuestras interacciones sociales.

Por su parte, Daniel Gruen de IBM Research, contempla dispositivos que podrían estimular la memoria cuando se nos olvida algo, lo que podría tener algunas consecuencias escalofriantes.

"Imagínese que en un futuro contamos con sistemas que nos ayuden con la memoria", dice. "¿En qué momento usted comenzará a preguntarse, 'Un momento, tuve una idea. ¿Será realmente mía o es que la idea viene de otro lugar?'".


Manipulación e implantes genéticos

¿Alguna vez ha tenido que esforzarse para deslizarse a través de la pantalla de su iPhone? Ese ya no será un problema cuando nos implanten un pulgar adicional en la mano.

Ese es el punto de partida de un estudio ficticio en el que 124 personas optaron por implantarse dedos biónicos en sus manos, hasta un promedio de 13,4.

Johannes Schöning, científico informático en la Universidad de Hasselt en Bélgica y sus colegas, incluso tienen una conclusión interesante: "12,5 es el numero óptimo de dedos en la mano, con seis dedos de tamaño normal en cada mano y la mano dominante con un dedo extra, mediano, que puede moverse libremente a 6 grados".

Es algo interesante, pero incluso Schöning admite que 25 años podría no ser suficientes para que esto suceda.

Originalmente, este artículo fue publicado por la revista New Scientist science y la revista de tecnología. Para mayor información, visite a New Scientist.

El futuro de las telecomunicaciones
En un mundo marcado por la creación constante de contenidos y el acceso a los mismos las 24 horas al día, los 7 días de la semana, los expertos consideran que mejorar la experiencia de usuario tal y como hoy la conocemos será clave para avanzar hacia un nuevo nivel en la era de la información. Tanto es así que el proveedor TIC Huawei ha redactado un decálogo de factores a tener en cuenta durante los próximos años.
Esto es lo que necesitará la industria:
http://www.gitsinformatica.com/imagen/futuro01.jpg1.- Desarrollar infraestructuras tecnológicas basadas en cloud computing, en tanto que la nube supone una evolución lógica de Internet y permite a las empresas gestionar el fenómeno del “Big Data” conforme a sus necesidades.
2.- Aprovechar este impacto del cloud para transformar las TIC y llevar a las PyMEs las mismas soluciones tecnológicas de las que ya disfrutan las grandes corporaciones. Por ejemplo, la personalización de servicios más seguros y fiables.
3.- Adaptar la red móvil a la era del gigabyte mediante el desarrollo de infraestructura de banda ancha con mayor nivel de tráfico. El objetivo último es reducir el tiempo medio que se emplea en transportar información entre dos puntos.
4.- Evolucionar hacia redes de próxima generación ALL-IP y lograr la convergencia entre redes fijas y móviles. Esto significa completar la migración de servicio, su interconectividad y realizar cambios tanto operacionales como de mantenimiento.
5.- Proveer de redes inteligentes y operaciones de ancho de banda bajo demanda, contribuyendo así a optimizar la eficiencia del servicio y a reducir los costes.
6.- Modernizar los sistemas de TI de los operadores de modo que soporten los procesos de principio a fin, desde el diseño y desarrollo de productos hasta la puesta en marcha en el mercado y la distribución. Esto es, los sistemas de soporte de operaciones (OSS) y los de apoyo a las empresas (BSS).
7.- Integrar el contenido digital y desarrollar multiplataformas (móvil/PC/TV/PAD) que funcionen también bajo demanda, ya que cada vez un mayor porcentaje de la población consumirá y generará contenidos a través de la Red de redes.
8.- Analizar grandes volúmenes de información y extraer conclusiones que ayuden a obtener ventajas competitivas y diferenciadoras, más allá de los tradicionales sistemas de gestión.
9.- Garantizar la seguridad de la información de usuarios y empresas, así como su privacidad. Algo que viene condicionado por la existencia de redes IP abiertas y la popularidad de los modelos de almacenamiento virtuales.
10.- Implementar redes ópticas inteligentes que sustituyan al cable de cobre, ofrezcan mejores opciones de desarrollo,
nternet, con la ventaja de que estés donde estés, puedes escuchar tu emisora favorita, como por ejemplo con TuneIn. Y esto se podría aplicar a cualquier otro contenido multimedia.

Y por supuesto, cuando el coche esté parado, y el conductor no corra el riesgo de distraerse fatalmente, siempre queda la opción de navegar por la red libremente y visitar páginas y páginas: para leer el periódico, consultar la bolsa, acceder a tal o cual blog..

Como podéis ver todas estas posibilidades, y muchas más que se les ocurran a los desarrolladores, ya las tenemos, o podríamos tener a través de un smartphone o una tablet, el resto está en que se integren totalmente y se sinergicen dentro
información más rápido (aproximadamente en la mitad de tiempo) y que su vista se fatigue menos, pues los ojos tienen que hacer menor esfuerzo a la hora de enfocar los datos, al haber menor diferencia de distancias entre la carretera y el parabrisas, que entre la carretera y el cuadro de instrumentos.

De ahí que muchos consideren el HUD como un sistema muy útil en los coches, que mejora la seguridad pues el conductor permanece con la vista en la carretera, más concentrado, y se reducen las ocasiones en las que la aparta.

Ahora bien, todo tiene su justa medida. Debemos cuidar de que la cantidad de información que se proyecta sea la justa, útil y necesaria.

Proyectar demasiados datos y ocupar mucha superficie, complican la comprensión y asimilación de los mismos, pueden tapar la visión de cosas que sucedan en la carretera y pueden distraer al conductor.

¿Qué información podemos considerar útil? En mi opinión con la velocidad en dígitos y un cuentavueltas básico sería suficiente. De manera complementaria podría incluirse también el límite de velocidad del tramo (utilizando un sistema de reconocimiento de señales) y las indicaciones esquemáticas del navegador GPS.

Más resolución, color, láser y gestos

Los sistemas HUD más habituales hoy en día, suelen ser monocromos, en colores como el blanco, azul, verde o naranja. Sin embargo ya se están presentando evoluciones que combinan varios colores (aunque por ahora tampoco muchos, solo dos, tres o cuatro).
De este tipo se pueden encontrar, por citar algunos ejemplos, en varios coches híbridos, como el Toyota Prius (una berlina de tamaño medio), el Toyota Prius+ (un monovolumen de siete plazas), el Peugeot 3008 HYbrid4 (un todocamino con tracción a las cuatro ruedas), y el Citroën DS5 Hybrid4 (una berlina deportiva), coches de los que podéis ampliar información en Motorpasión Futuro si tenéis curiosidad.

Los sistemas del Citroën y del Peugeot son ligeramente diferentes, ya que no proyectan la imagen directamente sobre el parabrisas, sino sobre una pequeña pantalla de policarbonato transparente escamoteable. He conducido ambos coches y el sistema me resultó también bastante cómodo e igualmente útil.
Incluso ya hay alguno que proyecta imágenes con más resolución y capacidad de mostrar gráficos más complejos y realistas con una paleta de colores más amplia, de 16 o 32 colores. BMW ya tiene uno de estos en sus coches más modernos.
Se está probando también proyectar otro tipo de información, como por ejemplo un asistente para mantener la distancia de seguridad con el vehículo que nos precede en la carretera. De nuevo BMW está en ello.

Pioneer está trabajando en un HUD láser económico, integrado de fábrica en los coches, que podría estar para el año 2016 a un precio de unos 200 dólares (unos 160 euros al cambio actual). Es a color y muestra también información del navegador GPS y de la agenda de contactos del teléfono.

Y por último Mercedes-Benz, como proyecto más de futuro, ha presentado un sistema de proyección de información sobre el parabrisas que incorpora también la realidad aumentada y el control por gestos. Este sistema muestra información interactiva en tiemo real al ir conduciendo con el coche, como por ejemplo un monumento, o un restaurante. Este tipo de información es a la que me refería antes: puede que sea demasiada y distraiga al conductor.
http://www.gitsinformatica.com/imagen/tend%2000.JPG
 


El disco de datos que sobrevivirá a la humanidad

Científicos de la Universidad de Twente, Holanda y el Centro Kist Europa, en Alemania, crearon un disco para almacenar datos que, dicen, podrá sobrevivir un millón de años.

Igual que la Piedra Rosetta permitió al mundo moderno comprender la florida cultura de los egipcios, Jeroen de Vries cree imprescindible que el hombre produzca un gran documento que le sobreviva. Una obra única que permita descifrar la humanidad a ojos de futuras civilizaciones, incluso cuando el ser humano se haya extinguido.

De Vries ha dedicado su investigación de doctorado en el Instituto de Nanotecnología MESA+ de la Universidad de Twente (Holanda) a fabricar un disco hiperresistente. Tanto, que conservará su información a pesar del tiempo y quedará para quien habite el planeta dentro de un millón de años.

http://www.gitsinformatica.com/imagen/disco%20millon%20anos.jpgLa producción del disco se enmarca dentro de un proyecto más grande llamado Documento de la humanidad.

"Estamos buscando la forma de almacenar datos de tal manera que lleguen intactos al futuro y sean comprensibles incluso a una inteligencia no humana.

Podemos, por ejemplo, dejar como legado una copia digital de la Mona Lisa u otros cuadros que representan nuestro paso por la Tierra", cuenta Jeroen de Vries vía telefónica a BBC Mundo.

"Si no hacemos nada, no podremos elegir qué información pervive, ya que sería cuestión de casualidad", añade el director del doctorado, Miko Elwenspoek.

Y es que, pese a que en esta era de internet la cantidad de información que producimos es ingente, pocos piensan en conservarla para que resista el tiempo a gran escala. Los DVD o CD de los que tenemos en casa pueden resistir unos 40 o 50 años a temperatura ambiente.

La gran aportación de de Vries al Documento de la humanidad es la durabilidad de este CD, capaz de resistir como mínimo un millón de años, "aunque queremos hacerlo aún más longevo", asegura.

Para demostrar la robustez de su disco, la Universidad de Twente ha producido un video en que muestra que puede acceder a su contenido incluso después de someterlo al calor de todo tipo de hogueras.

En el video se ve cómo un estudiante de la universidad fríe un huevo directamente sobre el disco, después lo quema junto con carbón y, no contento con eso, decide terminar por "cocinarlo" a la parrilla junto con un par de hamburguesas.

El disco supera todas estas pruebas: su contiene sigue siendo accesible.

De Vries basa la convicción de que el disco logrará resistir tanto tiempo en una ecuación matemática llamada ecuación de Arrhenius. Según ésta, el material debería resistir al menos una hora a 188 grados centígrados para simular el deterioro que sufren los materiales en un millón de años.

El truco de la longevidad

"El truco que utilizamos es insertar puntos de material en cerámica, que es químicamente, térmicamente y mecánicamente muy resistente. El material incrustado en la cerámica está protegido de cualquier embate ambiental. Esto hace que los datos sean robustos durante millones e incluso miles de millones de años", explica Miko Elwenspoek.

El plan del proyecto Documento de la humanidad tiene pensado incluso cómo y dónde es el mejor lugar para ubicar ese "regalo informativo" para nuestros sucesores en la Tierra.

Su idea es proteger los discos guardándolos en los mismos recipientes que contienen los residuos nucleares para que su exposición a las inclemencias del mundo sea la menor posible.

Por ahora se han producido cuatro discos hiperresistentes, aunque ninguno es el definitivo. "Eso tomará unos años", dice Vries, que asegura que su disco tiene aún posibilidad de mejorar y ser aún más resistente.

La información que contiene el disco que se ha quemado en el video es sólo "un ejemplo", aún no está completo con la historia relevante sobre la humanidad.

En esta versión de prueba se insertó un código QR en el CD, que se reprodujo cada vez más pequeño hasta una escala nanométrica, para comprobar que la información no se daña. "Pero probablemente sea otro tipo de codificación la que se utilice en un hipotético CD definitivo", explica Vries.

Los prototipos ya tienen una característica que pretenden que no varíe: no se podrán modificar. "Ésta ha sido una decisión intencional. Una vez se graban los datos esa información no se podrá cambiar, ampliar ni alterar. No queremos que nadie lo pueda modificar".

En 10 ó 20 años

Ante un auditorio repleto y entusiasmado, el Dr. Michio Kaku, en 2011, daba una conferencia sobre cómo será la vida dentro de tan sólo un par de décadas, recorriendo el día a día de cualquier persona. Realidad Aumentada, nanotecnología y conexión total, suficientes para llevar a cabo la revolución digital.

La realidad aumentada dará toda clase de información sobre el mundo

El doctor en física teórica de la Universidad de Nueva York llegó a la primera jornada de Movilforum Conference de Telefónica sabiendo que tenía un material sensacional para impresionar a su audiencia. Pero en toda su exposición siempre se mantuvo apegado a la realidad (o casi).

“The Next 10 to 20 Years into the Future” sirvió para comprobar que la tecnología que hasta hace muy poco era considerada como algo futurista está actualmente o en investigación o incluso en pruebas. Por eso, a cada idea ‘descabellada’ le seguía el nombre de la empresa u organismo público que lo está desarrollando.

Las telecomunicaciones en la persona

La Realidad Aumentada será la palanca que impulse al ser humano a una sociedad repleta de conocimientos. Sin necesidad de alterar su cuerpo, solamente con una conexión a Internet, se tendrá acceso a toda la información tanto para el aprendizaje, como para el trabajo o para el ocio.

En 10 o 20 años, contaba el profesor Kaku, los cristales de las gafas o incluso unas lentillas servirán de pantallas para completar la información que el mundo real transmite. Un turista viajará a Roma y podrá ver a las legiones luchando o las viejas construcciones.

Por otra parte, servirá como complemento a la información personal, ya sea para subtitular a tiempo real a personas que hablan en otra lengua o para recordar, mediante reconocimiento facial, de qué y cuándo conoces a esa persona que te está saludando y que no ubicas exactamente. Sin olvidar la enorme cantidad de usos militares, como por ejemplo para los pilotos de avión, que podrán ver efectivamente en 360º.

Comunicación sin interrupciones

Todo será mucho más simple dentro de unos años. Las teles serán transparentes, aunque proyecten imágenes 3D sin gafas. Es decir, una ventana. De hecho, cualquier superficie será una pantalla, algo que ya se está consiguiendo mediante varias investigaciones paralelas, una de ellas, la de Skin.

Pero irá más allá; gracias a su interacción, hablarle a la pared será como decir “espejito, espejito mágico”, y se cumplirá el deseo del usuario.

El papel transformado en pantalla será tan barato como un folio actual. Se convertirá en doctor en consulta rápida, en secretaria para ver la agenda o también en reproductor de vídeo al que se le puede pedir, como decía el físico, que en lugar de Humphrey Bogart el protagonista de Casablanca sea uno mismo.

No habrá escritorio porque el hardware deja de ser necesario. Bastará con escribir en cualquier sitio y el archivo se subirá a la nube. Y entonces, como si supiese a quién pertenece, seguirá a su propietario “a cualquier sitio y en cualquier momento. Es comunicación sin interrupciones”. Y tampoco es ciencia ficción porque ya existe, por ejemplo, en los laboratorios de Microsoft.

De la producción en masa a la personalizada

Salir a la calle tampoco será lo mismo dentro de 10 ó 20 años. Google sorprendía a propios y extraños hace unos días paseando por las autopistas de Estados Unidos sus coches autopilotados. Este desarrollo, conjunto con Toyota, es sólo el comienzo de un futuro que contempla sin atascos ni accidentes.

Ya en la calle, una de las tareas que serán más sencillas en el futuro según Kaku es la de comprar. La información almacenada permitirá pasar de la producción de masas a la producción personalizada para que aumente el grado de satisfacción del usuario. Por ejemplo, alguien llegará a una tienda y verá un modelo que le guste y le quede más o menos bien en función de su talla. Pero eso ya no será un obstáculo porque, al pagar, la tarjeta de crédito dirá a la fábrica que produzca ese modelo con unas medidas determinadas para su cliente.

El capitalismo utópico de Adam Smith estará más cerca, asegura el doctor, ya que el usuario tendrá en todo momento mucha más información. Sobre los precios de todas las tiendas, sobre la calidad y fabricación de los productos, sobre los bienes sustitutivos. Cómo implantarlo socialmente, eso sí, no es su campo.

Y por encima de todo, la salud

La medicina reducida a las telecomunicaciones. El final de la conferencia puso la vista en un mundo en el que no hay lugar a la intimidad, ya que el ser humano está constantemente controlado por su entorno.

Desde el punto de vista médico, por ejemplo, el váter será capaz de analizar día a día la orina para recomendar una dieta, el cepillo de dientes pedirá cita en el dentista si detecta una caries, la ropa sabrá cómo está la temperatura corporal o si hay algún fallo funcional y avisará a urgencias si es necesario.

Y por qué parar aquí. La reconstrucción de órganos para implantes partiendo de células propias, las interfaces cerebrales que permiten ya a una persona con parálisis total navegar por Internet o jugar videojuegos o nanocápsulas recorriendo el interior del cuerpo humano en busca de problemas. Todo es posible en un futuro que estará aquí en 10 ó 20 años.

 


f) Domo tica (edificios inteligentes): Aplicacion de la automatizacion, inteligencia artificial y optimizacion para el manejo eficiente y control de los recursos de un edificio.

        

No hay comentarios:

Publicar un comentario