viernes, 24 de diciembre de 2010

La Era Digital: La Web (y V)


Con simplemente ecribir www. (doble v, doble v, doble v, punto) a través del teclado de nuestra PC, posiblemente se abra el buscador por defecto de nuestro sistema (bing, google, etc.) permitiéndonos buscar cualquier tipo de información de una manera extremadamente fácil. Gracias a La Web, tal y como la conocemos hoy, el flujo de comunicación global se ha incrementado a una escala sin precedentes en la historia de la humanidad. La Web se usa para intercambiar y desarrollar cualquier tipo de experiencia, ya sea ideas políticas, culturales, musicales, de negocio, arte, literatura o cualquier cosa posible, en formato digital y con el menor esfuerzo, haciéndola llegar casi de forma inmediata a cualquier otro punto del planeta.
La Web (World Wide Web) revolucionó La Internet, la cual estuviera reservada sólo para expertos ni no fuera gracias a esa combinación de lenguaje HTML, base de datos DNS, servidores y direcciones IP que hacen posible que un usuario promedio de computadoras se conecte a internet y ubique su sitio web favorito con sólo ingresar "www." y el nombre del dominio. La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN (Organización Europea para la Investigación Nuclear) en Ginebra, Suiza. El gran avance de Berners-Lee fue unir hipertexto e Internet basado en los estándares: URI (Identificador de Recurso Uniforme) que es un sistema universal para referenciar recursos en la Web, como páginas web, HTTP (Protocolo de Transferencia de Hipertexto) que especifica cómo se comunican entre sí el navegador y el servidor, HTML (Lenguaje de Marcado de Hipertexto) usado para definir la estructura y contenido de documentos de hipertexto y XML (Lenguaje de Marcado Extensible) usado para describir la estructura de los documentos de texto.
La Web es el medio de mayor difusión de intercambio personal que ha conocido la Humanidad. Esta plataforma ha permitido a millones de usuarios interactuar casi de forma instantánea sin importar la distancia física que los separa. Ni la biblioteca más grande del mundo tendría en su haber la gran cantidad de información que está disponible en La Web. Desde la creación del algoritmo, pasando por la invención de la computadora, los lenguajes de programación y la llegada de internet, La Web cambió el mundo para siempre conviertiéndolo en la verdadera "Aldea Global" de nuestra Era Digital.

domingo, 19 de diciembre de 2010

La Era Digital: La Internet (IV)


Desde la aparición del primer computador personal en los años 70, todo parecía que el futuro inmediato sería dominado por las aplicaciones de escritorio. Las personas comunes ahora tenían un gran aliado en el PC, la herramienta perfecta para organizar su trabajo de forma más eficiente, procesar datos, almacenar la información y guardarla en medios magnéticos. Todo el software diseñado para las PC estaba destinado exclusivamente para la comunicación entre el usuario y el computador.
Esto cambiaría una década más tarde cuando se logró la integración de los protocolos de comunicación que permitió la interconexión entre diferentes tipos de redes de computadoras, lo que se conoce hoy como La Internet. Aunque parece ser un término ambiguo por su confusión con La Web, Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP (Protocolo de Control de Transmisión / Protocolo de Internet), garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Se podría decir que es toda esa superestructura formada por sistemas de comunicación, satélites, fibra óptica, servidores, redes de computadoras y software que permite hoy en día la intercomunicación entre las personas independientemente de su ubicación en cualquier pate del mundo.
Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos. Fue hasta 1989 cuando se logró la integración y estandarización de los protocolos de comunicación que permitiría la comunicación entre dos nodos por medio de paquetes de información en lugar de circuitos. En términos sencillos una comunicación a través de circuitos es como la comunicación telefónica donde se establece una trayectoria de comunicación entre dos usuarios, quedando reservado los segmentos del canal de comunicación para el par de usuarios. En una comunicación por paquetes, el mensaje se divide en pequeñas porciones o "paquetes" que circulan por la red de nodo a nodo pudiendo seguir distintas rutas. La información se reemsambla al llegar al nodo al cual el destinatario está conectado.
Toda esta maravilla de nuestra Era Digital que conecta hoy en día a más de 1.100 millones de usuarios (DC), que incluye aproximadamente 5.000 redes en todo el mundo y más de 100 protocolos, sólo estaría reservada para expertos sino fuera por la otra gran invención que años más tarde hizo posible para cualquier usuario "navegar" de una forma tan simple por esta gran red. Esta invención fue La Web (World Wide Web), tema de nuestra próxima entrada.

viernes, 10 de diciembre de 2010

La Era Digital: Lenguajes de Programación (III)


Sin el software (programas), todo el hardware del mundo sería simplemente un montón de circuitos integrados dentro de unas cajas metálicas. Aún la computadora más potente del mundo o el teléfono inteligente más innovador, serían objetos inertes, "sin vida", desprovistos de cualquier funcionalidad sino fuera por la "simbiosis" que mantienen con su par inseparable. El Software es el otro componente fundamental que convierte nuestras PC, teléfonos móviles, consolas de video-juegos o cualquier dispositivo de alta tecnología en herramientas fundamentales para trabajar, comunicarnos o divertirnos.
Gracias a los lenguajes de programación es posible construir programas de computación, sistemas operativos para teléfonos, interfaces para comunicarnos a través de la internet, reproducir video y música digital, construir programas para gestionar bases de datos, procesar textos, editar fotografías y un sin fin de aplicaciones que nos hacen más fácil la vida en este mundo tan competitivo. Desde la aparición del primer lenguaje de programación con sintaxis legible perfectamente por los humanos hasta los versátiles lenguajes usados hoy, son muchos los avances en materia de software. Para los usuarios comunes de computadoras y teléfonos móviles, de seguro le ha sido de mucha utilidad un procesador de palabras como WORD de Microsoft para escribir sus correspondencias, el buscador GOOGLE para obtener información o una website como FACEBOOK para comunicarse con amigos. En estos tres casos como en muchos otros estamos hablando de software hecho con uno o varios lenguaje de programación (Facebook está hecho con PHP, C, C++, Erlang y otros RWWAB).
Muchas personas se preguntarán cómo funciona esto. Cómo es posible darles instrucciones a una máquina para que haga todas estas cosas. Sin profundizar mucho y no hacer de este artículo un tema complicado y engorroso para un usuario promedio de computadoras, los lenguajes de programación nos ayudan a crear software para hacer posible que un operador, en este caso usted mismo, pueda transcribir un texto, enviar un correo, o editar una foto de una manera amigable a través de un computador o cualquier dispositivo electrónico que necesite de un programa para su funcionamiento. La computadora cuya arquitectura se basa en el sistema binario, sólo maneja o procesa un lenguaje compuesto por combinaciones de 0 y 1, que pueden significar Si o No, Encendido o Apagado, Verdadero o Falso, etc. Es lo que se conoce como lenguaje binario o lenguaje de máquina, y que por lo general, exceptuando algunos casos, una simple letra como la "A" de nuestro abecedario, la computadora la procesa en su lenguaje binario como un octeto formado por 0 y 1. En este caso la "A" para la computadora sería 100 0001. Imagínese el sólo hecho de darle instrucciones a una computadora en su lenguaje base. Sería toda una odisea, como dice el subtítulo de este blog: "Hablar en bits sería humanamente una tarea muy difícil...". Escribir la palabra HOLA en binario sería 100 1000  100 1111  100 1100  100 0001. Escribir un texto completo en lenguaje binario sería una tortura, sin contar con subrutinas que incluyan cálculos.
En la década de los 50, la comunidad científica creo un lenguaje para facilitar la escritura que consistía en un traductor para reemplazar los 0 y 1 por palabras (en inglés por supuesto) fáciles de memorizar como ADD (sumar), SUB (restar), CALL (ejecutar rutinas), etc. Este traductor se conoce como lenguaje ensamblador. Posteriormente aparecieron diferentes lenguajes de programación, los cuales reciben su denominación porque tienen una estructura sintáctica similar a los lenguajes escritos por los humanos denominados también lenguajes de alto nivel. A partir de allí comienzan a desarrollarse lenguajes de programación como FORTRAN (1957) y COBOL (1960) hasta culminar en nuestra Era Digital con lenguajes como JAVA, PHP, C, C++, y muchos otros con los cuales se ha construído, utilizando el algoritmo como técnica fundamental, todo el software que hace funcionar las computadoras y dispositivos móviles.
En esta era de internet, donde el tiempo es oro puro y fino, podemos redactar una correspondencia, enviar un correo, imprimir fotografías, reproducir videos y contactarnos con personas al otro lado del mundo de una manera sorprendente, utilizando la combinación  Hardware-Software gracias a los lenguajes de programación.

sábado, 4 de diciembre de 2010

La Era Digital: La Computadora (II)


Computadora, computador, ordenador, microodenador o PC, todos son sinónimos para referirnos al heredero de las grandes computadoras de los años 40, 50 y 60. Marcó el inicio y revolucionó la Era Digital hasta nuestros días. Dio origen a la cada vez más creciente industria del software. Desde su aparición, la computadora personal ha estado presente con nosotros maravillándonos cada vez más con lo que es capaz de hacer. El primer computador personal fue el Altair 8800 de MITS lanzado al mercado en 1975 (como el que se muestra en la foto que encabeza la entrada). Este microordenador no tenía monitor ni teclado, innovación que le permitió al que sería su competidor meses más tarde, el IMSAI 8080, sacarlo del mercado en poco menos de un año.
El computador personal cuyo propósito o función principal es el de procesar datos, fue diseñado en principio para ser usado por una sola persona a la vez, de allí el nombre PC (Personal Computer). Modernamente su uso va más allá y están equipados para realizar tareas como navegar por internet, escribir textos, escuchar música, jugar, etc. Básicamente el computador funciona con un mecanismo de Input-Output (Entrada-Salida). La computadora, además del programa básico para su funcionamiento (Sistema Operativo), necesita de datos específicos (Input) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos (Output). La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otras personas, computadoras o componentes electrónicos local o remotamente usando diferentes sistemas de telecomunicación, como es el caso hoy de la comunicación entre un PC con un teléfono móvil o viceversa, pudiendo ser grabada o almacenada en algún tipo de dispositivo o unidad de almacenamiento (Disco Duro-Memoria Flash).
Desde el punto de vista de su arquitectura, la computadora está integrada por tres secciones principales: El Procesador (Unidad Aritmética Lógica-Unidad de Control), La Memoria Central y los Dispositivos de Entrada/Salida. En palabras sencillas  el procesador (CPU), responsable de operaciones tan veloces, cotidianamente lo asociamos con palabras como PENTIUM, CELERÓN, SEMPRÓN, ATHLÓN, etc. La memoria central se refiera principalmente a la memoria RAM, y cuando hablamos de dispositivos de entrada/salida nos referimos al monitor, teclado, mouse, cámaras digitales, pendrives, impresoras y cualquier tipo de dispositivo electrónico capaz de conectarse al PC por medio de los puertos COM, SERIAL, USB, WI-FI, Bluetooth, etc.
Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. La gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos. Incluso nuestros hogares están llenos de pequeños computadores con programación fija, como los televisores, los equipos de sonido, cafeteras, equipos video y cualquiera que se pueda programar para su uso y funcionamiento.
la computadora o computador personal, desde su aparición, ha sido el eje principal de esta Era Digital y estará presente por mucho tiempo entre nosotros. Claro está, nunca habría sido posible operarlo para realizar nuestras tareas cotidianas o comunicarnos con personas a través de la internet sin la ayuda del otro componente principal: El Software. Gracias a los lenguajes de programación, tema de nuestra próxima entrada, es posible crear todo el software necesario (programas) para poder operar, ingresar datos y hacer posible que el PC procese nuestras órdenes de una manera tan fácil como hablar y escribir en nuestro idioma, frente a un conjunto de circuitos integrados y componentes que sólo "maneja" combinaciones de 0 y 1.

sábado, 27 de noviembre de 2010

La Era Digital: El Algoritmo (I)


La vida está llena de algoritmos, siempre que haya un problema habrá un algoritmo. Sin darnos cuenta andamos siempre resolviendo algoritmos, al levantarnos, al preparar el café, al encender el vehículo, al ponerlo en marcha para ir al trabajo, al cocinar, al encender el computador y al realizar cualquier tipo de tarea de nuestra vida diaria que implique un inicio-instrucciones-pasos-fin estamos resolviendo un algoritmo.
Un algoritmo, sin entrar en muchas complicaciones, no es más que el conjunto de instrucciones bien definidas, ordenadas y finitas que nos permiten realizar una actividad paso a paso sin que quede la menor duda de cómo hacerla.
Desde su invención u origen, que se remonta a los trabajos del matemático, astrónomo y geógrafo persa Al-Juarismi entre los siglos VIII y IX, los algoritmos que se asocian modernamente a las matemáticas y ciencias de la computación, los creamos, resolvemos y ejecutamos a diario. Desde la ejecución de las instrucciones que trae el manual del usuario de una tostadora, TV o equipo estéreo, hasta cambiar una bombilla quemada en nuestro hogar, estamos realizando una serie de pasos ordenados y finitos para resolver un problema. Por ejemplo, si una lámpara de mesa no funciona y queremos solucionar el problema (que encienda), hacemos lo siguiente: Inicio-¿está enchufada?-No: la enchufamos y listo-Fin. Por el contrario: Inicio-¿está enchufada?-Si: ¿el foco está quemado?-Si: reemplazar el foco y listo-Fin.
Ahora, cómo ha influido El Algoritmo en nuestra Era Digital. Cómo es que a partir de una serie de pasos sucesivos se ha logrado transformar el sistema de los bits y llegar a esta era de computadoras, internet y video juegos. Con la invención del sistema binario, base de la computación, los algoritmos se volvieron más sofisticados y abstractos y son los grandes responsables de esa entidad, producto, materia, montón de bits que no se palpan, que son instangibles pero que existen y están allí moviendo a todas las computadares del mundo: El Software, o como se le conoce comúnmente: "programas de computación".
El algoritmo evolucionó y pasó de ser una serie de instrucciones escritas en frases a herramientas como el pseudocódigo y los diagramas de flujo, donde de manera gráfica y utilizando símbolos y variables se resume y se representa una serie de pasos a seguir para resolver cualquier problema, desde un problema matemático, hasta el diseño y desarrollo de un programa de computación que permita a un usuario escribir una carta, enviar un correo o conectarse a su sistema de red, simplemente utilizando un teclado y el mouse de una computadora, o mejor aún utilizando únicamente su teléfono móvil.
Nuestra Era Digital, sin duda alguna, no fuera posible sin este simple eslabón que compone la cadena PROBLEMA-ALGORITMO-PROGRAMA y que dio inicio al diseño y desarrollo de grandes invenciones que hoy nos mantienen conectados, compartiendo y relacionándonos con personas en cualquier parte del mundo.


sábado, 20 de noviembre de 2010

La Era Digital: ¿Cómo comenzó todo?


Realidad virtual, hologramas en 3D, supercomputadoras, dispositivos móviles capaces de conectarnos con cualquier cosa y en cualquier momento..., ayer ciencia ficción, hoy tan reales como nosotros mismos. Vivimos en la Era Digital, estaríamos trasladándonos de un mundo de átomos a un mundo de bits como diría en 1995 Nicholas Negroponte en su libro Ser Digital.
El término "Superautopista de la información" acuñado al principio de la década de los noventa es ya casi un hecho, sólo basta que la industria se ponga de acuerdo. Este concepto no abarca únicamente la Internet, sino un medio más popular y que está presente en casi todos los hogares: la televisión. En un futuro muy próximo, además de programar desde el teléfono móvil nuestro VCR para grabar programas de TV y películas, también se podrán hacer transacciones bancarias, encender el vehículo, programar el ambiente de nuestro hogar para cuando lleguemos del trabajo, hacer video llamadas, navegar por internet, vigilar nuestra casa y vecindario, adquirir boletos para viajar, comprar, vender... y muchas cosas de las que estás pensando en este momento, usando simplemente la TV y su control remoto.
Este mundo digital, que a decir de muchos críticos, está acabando con las relaciones interpersonales cara a cara, y que mantiene a un buen porcentaje de la humanidad (tal vez un tercio de población mundial) conectada a un PC o a un dispositivo móvil más de la mitad del día, tuvo un comienzo, y tal vez nos preguntemos ¿Cómo comenzó todo esto?.
Desde la invención del algoritmo entre los siglos VIII y IX, hasta la aparición de la primera computadora de escritorio en la década de los 70's (siglo XX) pasaron más de once siglos y medio. A partir de allí hasta nuestros días sólo han trancurrido 4 décadas (40 años y un poco más), y podemos considerar, si ustedes me lo permiten, que a partir de este momento comienza la "Era Digital". Aunque la aparición del bit (sistema binario) base de la electrónica y la computación moderna, data de siglos atrás, nuestro mundo digital que hoy conocemos con una internet con mayor ancho de banda, con buscadores como Google, con redes sociales como Facebook o Twitter, con computadoras más pequeñas y ultra delgadas, y con dispositivos móviles como los Blackberry o Iphone, comienza cuando aparece la primera computadora personal que da inicio a la veloz y cada vez más creciente industria del hardware y software.
Cabe preguntarnos entonces, cómo funciona todo esto, cómo evolucionó todo. Toda esta maravilla moderna tiene una historia detrás de sí creada por el intelecto y esfuerzo de hombres y mujeres de todo el mundo a través de los siglos. A mi entender este mundo digital está marcado por 5 etapas fundamentales en la historia:
1.- La invención del Algortimo.
2.- La invención de la Computadora.
3.- La creación de los Lenguajes de Programación.
4.- La creación de la Internet.
5.- La creación de la Web (World Wide Web).
En las próximas entradas trataremos estos 5 temas bien relevantes que a muchas personas que usan su PC o teléfono móvil, y que simplemente se "conectan" para enviar sus correos, disfrutar del "face" o enviar sus "twits", les gustaría conocer.

Saludos...


sábado, 4 de septiembre de 2010

¿Por qué se ha puesto lento tu computador?


Cuando compramos una computadora nueva, nos alegramos porque tenemos la sensación de que ahora desaparecerán para siempre los problemas que teníamos con nuestra antigua PC. En efecto cuando la instalamos y comenzamos a probar vemos sorprendidos como se inicia el sistema, como se cargan rápidamente los programas y como nuestra conexión a internet es lo máximo (siempre y cuando el proveedor de internet ofrezca un buen servicio). Decimos que nuestro nuevo PC "vuela" en comparación con el que acabamos de vender, regalar o echar al olvido.
Al cabo de un tiempo nos vemos sorprendidos porque nuestro "avión" nuevo se ralentiza o se pone demasiado lento a pesar de tener una configuración de hardware con un potente procesador, placa base de última generación, memoria RAM con más de 1GB y una capacidad de almacenamiento también de varios GB. Es un hecho ya demostrado, que en el 90% de los casos, las fallas de funcionamiento de un computador de escritorio o laptop están asociadas al software y no al hardware.
En el caso de un computador que se ha puesto demasiado lento, es casi seguro suponer que el problema radica en la instalación indiscriminada de programas en el PC y a la constante pero necesaria conexión a internet. Cuando se instalan nuevos programas, éstos dejan tras de sí una llamada "entrada de inicio automático". Esta entrada hace que, en cuanto se inicia una sesión en Windows, el programa en cuestión o un componente del mismo se carga automáticamente en la memoria. En algunos casos, esto tiene sentido, como por ejemplo cuando se trata de un antivirus. Sin embargo, en la mayoría de los casos se trata de software innecesario, o programas que se pueden iniciar manualmente en cualquier momento, sólo cuando realmente se necesitan. Al conectarnos a internet y comenzar a visitar todas las páginas web de nuestro interés o no (ya no es sorpresa para nadie cuando emerge un sitio web en la pantalla sin el consentimiento del usuario) comienza inmediatamente la descarga hacia tu computadora de archivos temporales como: fotografías, videos, programas instaladores, scripts, cookies y pare de contar (esto sin contabilizar a los virus). Todos estos archivos temporales, que al cabo de un tiempo pueden llegar a ocupar un espacio en tu disco duro de varios GB, sumado a las constantes acciones de borrar y copiar archivos propias del usuario, son causantes del problema número uno que hace que nuestro PC tarde una eternidad en iniciar el sistema o una aplicación, la "fragmentación del disco duro".
Cuantos más programas se ejecuten al iniciarse Windows y más fragmentado esté nuestro disco duro, más tiempo tardará el ordenador en arrancar y ejecutar las aplicaciones. Pero como toda enfermedad tiene su remedio, está a nuestro alcance llevar a cabo dos procedimientos sencillos pero útiles (descargar guía) para mejorar un poco nuestro problema de lentitud con el PC:
1.- Primero debemos eliminar los archivos temporales de internet. Para esto vamos a la barra del menú principal de Internet Explorer, y pulsamos sobre Herramientas->Opciones de internet. Luego en la pestaña "General" en la sección "Historial de exploración" podemos eliminar todos los archivos temporales de internet. 
2.- Microsoft detectó el problema de la fragmentación de disco y equipó a sus primeros sistemas operativos con un programa de desfragmentación. Para desfragmentar el disco duro pulsamos el botón "Inicio" de Windows, luego pulsamos sobre Todos los programas->Accesorios->Herramientas del sistema y ejecutamos la herramienta "Desfragmentador de disco". Se elige la unidad de disco duro y se pulsa el botón "Desfragmentar". Ahora sólo queda esperar (el tiempo depende de qué tanto se encuentre fragmentado nuestro disco duro).
Existen también harramientas especializadas para hacer "mantenimiento" a nuestro PC que son excelentes, TuneUp Utilities es de las más recomendadas. Siempre existe la duda de que si realmente es el software o el equipo el que está fallando. Hay una forma radical de demostrar esto: si usted quiere que su PC "vuele" como el momento en que lo compró, reinstale completamente su sistema operativo. Para esto debe formatear su disco duro y reinstalar todo como nuevo. Eso si, tenga especial cuidado en respaldar primero todo sus archivos más importantes, y tener a mano todo los drivers necesarios del hardware de su equipo.

domingo, 29 de agosto de 2010

La cónsola Atari 2600 el gran hito de los videojuegos


Las cada vez más sofisticadas cónsolas de videojuego de hoy como Xbox, Nitendo y Play Station, con sus juegos en 3D de increible diseño que mantienen a grandes y chicos pegados a las pantallas del PC o de la TV, tuvieron su antecesor hace 33 años, en la grátamente recordada por los jóvenes de los ochenta, Atari 2600. La cónsola de videojuegos más popular que tuvo el mundo antes del boom de las VGC japonesas que se impusieron hasta hoy.
Quien no recuerda haber jugado Pac-Man, Asteroids o Space Invaders en esta sin igual cónsola que en la práctica era un verdadero computador que contaba con CPU completa y circuitos integrados dedicados al manejo de gráficos y sonido, además de suministrar memoria y controles de entrada/salida.
Todo empezó con su lanzamiento al mercado en 1977 por la empresa americana Atari, Inc. con el nombre de Atari VCS, y se convirtió en la primera en utilizar cartuchos intercambiables. Esta cónsola se vendía acompañada con dos joysticks, un par de controladores tipo paddle y un cartucho de juego. Se vendieron 42.000.000 de unidades y su juego más vendido fue Space Invaders. Era de fácil instalación y se podía utilizar con televisores con entrada RCA o a través del adaptador para la conexión del antiguo cable plano de las antenas de TV. Tenía una arquitectura simple y muy sencilla de operar con el botón de encendido/apagado, botón de nivel de dificultad para jugar, select y reset.
Atari 2600 fue uno de los mayores éxitos en la industria de los videojuegos durante más de 14 años en E.E.U.U. y Europa. Tal vez el juego más recordado de la Atari 2600 fue el Pac-Man, creado por el diseñador de videojuegos Toru Iwatani, y que se convirtió en el más popular desplazando a Space Invaders. El inolvidable y duro de matar "Come Cocos" amarillo debía de comerse lo más rápido posible todos los puntos necesarios antes de que los cuatro fantasmas: Shadow (Blinky), Speedy (Pinky), Bashful (Inky) y Pokey (Clyde) acabaran con él. El Pac-Man se jugaba utilizando un Joystick que se debía mover muy rápido antes de que te atraparan los fantasmas. El juego tenía 255 niveles y se podía acumular un máximo 3.333.360 puntos
Sin duda alguna, los videojuegos de hoy son cada vez más  innovadores y espectaculares. Pero haber jugado con la Atari 2600 será para siempre uno de los mejores recuerdos para los jóvenes de la década de los ochenta que tuvimos el privilegio de ver de cerca el nacimiento de las cónsolas de videojuegos.

sábado, 21 de agosto de 2010

De la Aldea Global Al Gran Hermano


Dos grandes visionarios nunca pensaron que sus teorías o sátiras acerca de un mundo globalizado interconectado y la de un nuevo orden que controlaría hasta el más mínimo movimiento de sus ciudadanos, se convertirían en realidad. El primero acuñó el término de Aldea Gobal, al referirse al impacto que tendría en el futuro las tecnologías de la información y de la comunicación, que haría que toda la población humana se comunicara y conociera casi de manera instantánea aún estando separados por grandes distancias dentro del globo terrestre. El segundo satirizó en su obra las actitudes totalitarias y represoras de sociedades u organizaciones que controlarían y vigilarían a sus ciudadanos.
Marshall McLuhan, filósofo canadiense fue quien en 1968 escribió el libro Guerra y Paz en la Aldea Global donde es posible que se haya mencionado esta expresión por primera vez. McLuhan con su Aldea Global se refería a que el mundo con sus avances tecnológicos, sobre todo en las comunicaciones, transformaría a la sociedad humana en una especie de aldea donde las personas se sentirían cada vez más cerca gracias a tecnologías como la televisión, que fue el medio de comunicación de masas que para los años sesenta comenzaba a verse vía satélite. Lo que no pensaba McLuhan es que décadas más tarde surgiría la internet con el gran impacto que todos conocemos, y que conectaría a una persona en Japón con otra en América de forma instantánea y casi de cara a cara, acortando las distancias y el tiempo de manera increible.
Por otra parte, dos décadas antes en 1948, George Orwell había escrito la novela de ficción distópica 1984, donde el personaje central es El Gran Hermano quién con sus atribuciones de omnipotente y vigilante se convierte en el guardían de la sociedad, dios pagano y juez supremo que vigila sin descanso todas las actividades cotidianas de la población, que incluso llenaría las calles de "dispositivos de vigilancia" para conocer los actos de cada individuo. No tan lejos de la realiadad estaba Orwell. Esta visión es más aterradora en la actualidad gracias a los avances en telecomunicación y a innovadoras tecnologías que hacen que cada vez salga al mercado un nuevo dispositivo más sofisticado capaz de grabar en videos y fotografías desde el más simple de los actos hasta la actividad más íntima de las personas.
McLuhan con sus teorías de un mundo interconectado como el de hoy, que ofrece las ventajas que hacen posible su aldea global, no imaginó lo que Orwell satirizó de los regímenes totalitarios de la post guerra, y que hoy gracias a la velocidad con que avanza la tecnología de la información, la comunicación, la internet y el auge de dispositivos electrónicos como teléfonos celulares, video cámaras y sistemas de vigilancia, el Gran Hermano ya se encuentre sobre nosotros.
No es para llegar al extremo de convertirnos es paranoicos y sentirnos vigilados a cada rato. Pero una cosa si es cierta, en el momento menos esperado, aún cuando nos sintamos más seguros, es posible que nos estén vigilando.


sábado, 14 de agosto de 2010

¿Por qué LINUX no se impone aún?


Desde que Linus Torvalds lanzó al mundo en 1991 la primera versión del núcleo Linux, todo parecía suponer que comenzaría una verdadera competencia en la implantación de sistemas operativos para PC de escritorio y grandes servidores. Pero resulta que hasta hoy más del 80% de los computadores del mundo usan Windows (Fuente: W3counter).
A qué se debe que el gran sistema operativo LINUX, con la mayor legión de programadores dispuestos a mejorar cada día su código, que adoptó desde el principio ser un sistema operativo libre y adherirse al Proyecto GNU de Richard Stallman, que cuenta con el apoyo de dos grades compañías del mundo tecnológico como Sun Microsystems e IBM, no ha logrado imponerse como el real competidor de Windows de Microsoft, y que apenas se ubica con poco más del 1% en preferencias por detrás del sistema operativo Mac OSX de Apple Inc que ostenta el segundo lugar después de Windows con un 4%.
Al parecer la respuesta es muy simple. Si se les preguntara a las personas ¿Qué hamburguesas son las más sabrosas? ¿Las que hace MacDonald´s, o las que hacen ustedes en sus casas?. Me atrevo a afirmar que la mayoría respondería que las mejores hamburguesas son las que hacen en sus casas. Pero sin embargo, por qué las cadenas de restaurantes de MacDonald´s están repletos de gente incluso por los que responderían esa pregunta.
Detrás de la aceptación de un producto por parte del consumidor no sólo está la calidad del mismo, sino también una serie de factores que hacen posible que éste se ubique como el número uno del mercado. En el caso de Linux vs. Windows, donde este último es el sistema operativo que hay que destronar por las multiples opiniones de fallas en su gestión de software-hardware, resulta que Linux con sus inumerables mejoras en la robustez que es la propiedad que debe tener todo sistema operativo para ser confiable y manejar los errores de forma eficiente, no compite ni remotamente con Windows a pesar de ser mejor.
Pienso particularmente que la causa principal del poco progreso que ha tenido Linux en estos 19 años para competir en el campo de los sistemas operativos, es que sus defensores y patrocinadores pierden un tiempo muy valioso centrándose en las deficiencias de Windows y su licencia de uso propietario, en vez de resaltar las bondades del sistema Linux y respaldarlo con una gran campaña de marketing así sea de uso libre, para hacerlo llegar a los usuarios y que éstos los pueadan implantar en sus computadoras de una forma muy sencilla sin dejar a un lado su antiguo SO para comparar y convencerse a si mismos.
Estas son otras razones que considero son consecuencia del estancamiento de Linux como SO:
1.- Los defensores de Linux están enfrascados en una especie de "guerra fría" con Windows, como el enfrentamiento entre el bein y el mal que termina hasta en discusiones políticas inútiles.
2.- Si Linux es de uso libre, en el caso de latinoamérica el uso de Windows y todo el software de aplicaciones es casi el 90% libre (gracias a la piratería).
3.- Windows con todas sus fallas, tiene más aplicaciones de terceros muy útiles que no se pueden implantar con Linux.
4.- La instalación de Windows es más sencilla que Linux (esto es vital para competir).
5.- Windows se supone que es más compatible con el hardware, simplemente por que tiene más drivers a su  disposición.
Mientras continuen los argumentos triviales para imponer Linux sobre Windows, no habrá manera de que Linux se posicione como un verdadero competidor en el mundo de los sistemas operativos. Cuando comience una verdadera campaña de promoción y distribución para el uso de Linux por parte de las grandes empresas tecnológicas (Sun e IBM han hecho grandes aportes, pero la mayoría de las PC y portátiles de IBM salen hoy al mercado con sistema Windows) habrá grandes posibilidades de que Linux se consolide.

De no ser así hasta ahora habrá un solo ganador con Linux: Linus Torvalds.
  

domingo, 8 de agosto de 2010

Las mujeres también mandan en las redes sociales



No sólo mandan en la casa, también son líderes políticos y hasta presidentes. Resulta que las mujeres aunque son minoría en Internet, dominan en Facebook y empatan en Twitter. Así lo revela un reportaje de El País de España. Refiriéndose a un estudio de comScore dice que en mayo de 2010 el 75,8% de las mujeres internautas visitaron redes sociales frente al 69,7% de los hombres.
Y aquí otros datos según la web socialmedia:
- Las mujeres en el rango de 18-34 años están enfocadas en sus cuentas de Facebook.

- 57% de las mujeres declararon que tienen más conversaciones en línea que cara a cara.


- 39% se autoproclaman Adictas a Facebook.


- 34% afirma que ingresar a Facebook es lo primero que hacen al despertarse.


- 21% revisa su Facebook en el medio de la noche.


- 63% utiliza Facebook como herramienta para hacer contactos.


- 58% utiliza Facebook para llevar rastro a sus “amigas/enemigas”.


- 50% están de acuerdo con ser amigas de completos extraños.


- 9% de mujeres ha terminado su relación via Facebook.


- 91% de mujeres piensa que terminar via Facebook no está bien.


- 54% de mujeres no confía a Facebook su información privada.

Ya sea para estar en contactos con amigas, publicar fotos y videos, o para seguir un tema de interés, las mujeres tienen cada vez más participación en el mundo tenológico e internet, como lo hicieron décadas atrás con la política, la religión y el mundo empresarial. Nada es de extrañar que quién nació de la costilla de un hombre y la que está siempre presente en el ciclo de la vida, se convierta también en actor principal del Facebook y Twitter.

Porque como dicen ellas: "La que manda es la mujer".



sábado, 31 de julio de 2010

¡¡Windows XP es el ganador!!


Quién iba a pensar que desde su aparición en el año 2001, Windows XP sería el sistema operativo más usado hasta hoy. Windows XP sigue estando presente en el 74% de los computadores del mundo, y más aún, el dowgrade de Windows 7 a XP se ha extendido hasta el 2020, lo que le asegura una existencia de por lo menos diez años más.

¿A que se debe la popularidad de Windows XP?. Esta pregunta tiene su respuesta en los millones de usuarios satisfechos hasta ahora con un sistema operativo que definitivamente les solucionó sus problemas de compatibilidad y que les funciona a las mil maravillas en comparación al rotundo fracaso de Windows Vista que lamentablemente "murió al nacer" y obligó a muchos usuarios a volver a XP.

A pesar del lanzamiento de la última versión de Windows (Windows 7), el cual ha tenido muy buena aceptación entre los usuarios y empresas, parece inexplicable que alguien quisiera cambiarse de Windows 7 a XP. Esto puede tener algunas razones:

1.- Mientras XP siga funcionando perfectamente. ¿Por qué cambiarse?

2.- Todas las aplicaciones con código antiguo siguen funcionando en XP.

3.- Windos 7 es excelente, pero la clave está en la compatibilidad.

4.- Una empresa invierte dinero cuando es necesario, pasar de XP a W7 es innecesario.

Si se permite un consejo, es mejor siempre esperar a que una nueva versión de un sistema operativo esté lo suficintemente probada para hacer la migración. En el caso del mismo XP después de su debut en 2001 se hicieron varias actualizaciones para mejorar fallas de funcionamiento y comenzaron a salir los parches o SP. Si todo está funcionando bien con tu actual SO, es bueno esperar antes de dar el gran paso.

Aún así parece que entre Vista, XP y 7, ¡¡Windows XP ES EL GANADOR!!


lunes, 26 de julio de 2010

¿Cuánto tiempo pasas sentado frente al PC?



Estar sentado 6 horas seguidas puede matar. Así lo arroja un
Estudio de la Sociedad Estadounidense de Cáncer según RPP Noticias. Entre otras cosas dice que estar sentado por muchas horas suprime a las hormonas que regulan la producción de triglicéridos y colesterol, lo que a su vez puede desencadenar problemas cardíacos.

Esta afirmación puede tener mucho de cierto. Pero qué sucede con las personas que pasamos horas sentados frente al computador. Acaso nos hemos preguntado últimamente: ¿Cuánto tiempo estuve sentado frente al PC el día de hoy?. Para muchas personas que se encuentran conectadas a internet largas horas frente el computador, o para gente que necesita del PC para trabajar, o simplemente personas que no pueden deshacerse del él por un minuto, esta es una pregunta seria.

Sentarse frente al computador por mucho tiempo si puede traer trastornos o molestias aunque sin llegar al fatal desenlace como se menciona al principio. Es muy común hoy en día que tras largas horas de trabajo frente al computador, se comience con una molestia que puede ser el principio de peores trastornos: el dolor de espalda. Si no se toman recesos cada cierto tiempo después de estar sentados por más de dos horas frente a la computadora se corre el riesgo de sufrir otras consecuencias. Primero se comienzan a dormir las piernas y brazos. Si el tiempo sentado frente al PC va más allá de las cuatro o seis horas al día se comienzan a dormir los dedos de la mano que mueve el mouse y comienza a sentirse un dolor muy agudo en la base de la muñeca. Cuando se llega a esta fase lo más recomendable es descansar totalmente, o de seguro esto terminará con consecuencias aun peores.

Tomando en consideración lo expuesto por muchos profesionales de la medicina acerca del tema y basado en mi propia experiencia les recomiendo tener en cuenta estas precauciones:

1.- No estar sentado por más de dos horas contínuas frente al PC.

2.- Si el trabajo es muy intenso, tomar descansos de 10 minutos cada hora y media.

3.- Levantarse y ejercitar brazos y piernas (ayuda a la circulación).

4.- Usar una silla ergonómica o en su defecto una silla acolchada que no haga mucha presión en la parte posterior de la rodilla.

5.- Usar almohadilla para el mouse que tenga apoyo para la muñeca.

6.- Si se le va el tiempo sin percatarse y puede pasar más de dos horas continuas frente al PC, utilice un collarín blando para descansar el cuello.

7.- Si su sesión de trabajo diario frente al PC es demasiado larga, alterne con una actividad física, donde pueda mover brazos y piernas.