11 de enero de 2014

Historia de los ordenadores y su evolución



Introducción:

En la sociedad en la que vivimos la tecnología resulta imprescindible y avanza cada vez más rápido y de una forma más sorprendente día a día, haciendo imposible visualizar el límite al que llegaremos. Internet se ha convertido en una herramienta necesaria sin la cual todo cambiaría por completo, pero todo este desarrollo de Internet no podría continuar sin un desarrollo de todo lo que le rodea, ya sean móviles, sistemas de telecomunicaciones… y los ordenadores. El ordenador es el elemento fundamental que sustenta los sistemas de información actuales, y constituye el cimiento de los sistemas de información. Casi todos tenemos un ordenador como mínimo, pero para poder llegar hasta la actualidad el ordenador ha cambiado drásticamente, y lo que cambiará en un futuro.


Pero, ¿qué es exactamente un ordenador? Lo primero es que se conoce también como computadora o computador. Se trata de una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Esta es la función principal del ordenador. Una computadora es una colección de circuitos integrados y otros componentes relacionados que pueden ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones. Un programa informático por lo tanto es un conjunto de instrucciones que una vez ejecutadas realizarán una o varias tareas en la computadora. Estas secuencias o rutinas de instrucciones son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas a ello, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador.


La computadora además del programa informático necesita datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados. Estos datos son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "Output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida o retransmitida a otra(s) persona(s) o computadora(s) usando diferentes sistemas de telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.

La característica principal que la distingue de otros dispositivos similares es que se trata de una máquina de propósito general, es decir, puede realizar tareas muy diversas gracias a las posibilidades que ofrecen los lenguajes de programación y el hardware.

Historia del ordenador:

Antes de llegar al ordenador actual las cosas eran bastante diferentes


Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.


Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. La máquina Colossus fue el secreto mejor guardado por los ingleses durante la Segunda Guerra Mundial. Hacia diciembre de 1943 este “ordenador”, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.


En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC (acrónimo de Electronic Numerical Integrator and Computer) según mostró la evidencia se basaba en gran medida en el “ordenador” Atanasoff-Berry.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.


A finales de la década de 1950 el uso del transistor en los ordenadores marcó la llegada de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.


A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Los ordenadores modernos son electrónicos y digitales. La maquinaria real, cables, transistores y circuitos, se llama hardware; las instrucciones y los datos se llaman software. La interacción entre ambos hace operativa la maquinaria. En la actualidad los ordenadores (personales) constan de los siguientes elementos de hardware (ver enlace para fotos):

- Monitor: Es un dispositivo de salida (interfaz), la pantalla de visualización, que muestra datos o información al usuario. Se trata de un dispositivo de salida (Output device).

- Placa base: También conocida como placa o tarjeta madre es una tarjeta de circuito impreso a la que se conectan los componentes que constituyen la computadora. Es una parte fundamental a la hora de armar un PC de escritorio o portátil. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el circuito integrado auxiliar, que sirve como centro de conexión entre el microprocesador (CPU), la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos. Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tienen un panel para conectar dispositivos externos (como el ratón y el teclado) y muchos conectores internos y zócalos para instalar componentes dentro de la caja. La placa base, además, incluye un firmware llamado BIOS que le permite realizar las funcionalidades básicas (pruebas de dispositivos, vídeo y manejo del teclado...)

- Unidad central de procesamiento (CPU): El procesador es el componente principal del ordenador (su cerebro) y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos. La CPU proporciona la característica fundamental del ordenador digital (la programabilidad) y es uno de los componentes necesarios encontrado en los ordenadores de cualquier tiempo, junto con la memoria principal y los dispositivos de entrada/salida. 
Se conoce como microprocesador el CPU que es manufacturado con circuitos integrados. Hoy en día el término "CPU" es aplicado usualmente a todos los microprocesadores. Tanto la miniaturización como la estandarización de las CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna muchi más allá de las aplicaciones limitadas de las máquinas de computación. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras y aviones hasta teléfonos móviles o juguetes, entre otros. En la actualidad muchas personas llaman CPU al a la torre del ordenador, confundiendo de esta manea a los principiantes en el mundo de la computación.


- Puertos ATA: El puerto ATA (Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos, como los discos duros, añadiendo además dispositivos de lectura óptica como las unidades CD-ROM.

- Memoria de acceso aleatorio (RAM): Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se denominan "de acceso aleatorio" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

- Tarjeta/Placa de expansión: Son dispositivos con diversos circuitos integrados y controlados que, insertadas en sus correspondientes ranuras de expansión, sirven para expandir las capacidades de un ordenador. Las tarjetas de expansión más comunes sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos.

-Fuente de alimentación: Es un dispositivo que convierte la corriente alterna en una o varias variantes continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (en este caso el ordenador).

-Unidad de almacenamiento óptico: Es aquel dispositivo que es capaz de guardar o leer datos por medio de un rayo láser en su superficie plástica, ya que se almacenan por medio de ranuras microscópicas. La información queda grabada en la superficie de manera física, por lo que solo el calor y las ralladuras pueden producir la pérdida de datos. Es inmune a los campos magnéticos y la humedad.

- Disco duro: Es un dispositivo de almacenamiento de datos no volátil (no necesita energía para perdurar) que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.

- Teclado: Es un dispositivo de entrada (en parte inspirado en el teclado de las máquinas de escribir,) que utiliza una disposición de botones o teclas, para que actúen como interruptores electrónicos que envían información a la computadora.

- Ratón: Es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico de un ordenador. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.



El software en cambio incluye desde programas como el procesador de texto al sistema operativo, que básicamente permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz al usuario.

Futuro de los ordenadores

Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño, colocar un mayor número de transistores en un menor espacio. Llegará un momento en que no se podrán hacer los chips más pequeños, y esto plantea otros tipos de ordenadores que están mencionados más adelante en este trabajo. Además, los investigadores intentan mejorar y aumentar la rapidez del funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.

Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Como hemos visto las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Debido a esto la evolución de Internet está tan ligada a los ordenadores. Suele considerarse Internet como la última mayor revolución de la información, pero no se puede dejar de lado la importancia que tuvo en ella los ordenadores.


Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Es decir, que parece ser que los ordenadores avanzan de manera tan rápida que no es inconcebible que en un futuro incluso el pensamiento humano, que crea estas máquinas, se quede por detrás de ellas.

Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares (mediante la "nanotecnología"). En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía. Los circuitos moleculares no son excesivamente rápidos, pero son increíblemente más pequeños. Las familias de moléculas que parecen más prometedoras para estos ordenadores son las derivadas de los hidrocarburos aromáticos (específicamente el benceno) y los nanotubos de carbono (también llamados fulerenos o buckytubes).

Ordenadores cuánticos:

Como está escrito antes, no podemos hacer los chips infinitamente pequeños. Hay un límite a partir del cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circulas. A esto se le llama efecto túnel. Los electrones al comportarse como ondas puede que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por los canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.

En consecuencia, la computación digital tradicional no tardará en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica en escena. La idea de computación cuántica surge en 1981, cuando Paul Benniof expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se puedan realizar varas operaciones a la vez, según el número de qubits.

Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (10 millones de milloes de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).


Los ordenadores cuánticos presentan algunas dificultades y limitaciones en la actualidad, pero sus posibles aplicaciones, además de las relacionadas con el cálculo, son muy interesantes. Podrían servir para hacer transmisiones absolutamente seguras. Estas transmisiones no implican una seguridad absoluta; el que una transmisión no se pueda interceptar no quiere decir que el ordenador donde se guarde el mensaje ya recibido no pueda ser robado.

Estos ordenadores también se podrán usar para hacer una cosa llamada teleportación, que consiste en leer el estado cuántico de un átomo y copiarlo en otro átomo situado a una gran distancia. Además los ordenadores cuánticos podría llegar a comprobar la veracidad de diferentes teoremas matemáticos, pero su explicación sería tan larga que habría que creerse lo que diría sin poder ver la prueba, la demostración. 

Para más información dejo el siguiente link, un artículo curioso en el cual se explica de una forma muy clara y precisa el funcionamiento de los ordenadores cuánticos. Se trata de un artículo muy interesante, e incluso habla para relacionar las tres posiciones que pueden adoptar los bits (0, 1 y ambas  la vez) del experimento del gato de Schrödinger. Recomiendo leer (aparte de la explicación de este tipo de ordenador) el apartado de “otras aplicaciones”:



Fuentes: Wikipedia, Todo sobre el Ordenador, Historia de los ordenadores, colossus -Nombre de la maquina, Ecured, http://www.maderkraft.com/ordenadores_moleculares.pdf http://www.babab.com/no12/ordenadores.htm 

La brecha digital y los inconvenientes de la globalización




·Introducción


Hoy en día vivimos en un mundo cuya información está descentralizada, un mundo en donde podemos comunicarnos sin problema alguno con personas que estén al otro lado del planeta...etc. Esto se debe principalmente a los avances tecnológicos alcanzados en el siglo XX y XXI: Las TIC o tecnologías de la información y la comunicación.
El proceso de avances y nuevas tecnologías que llevó a esta situación se conoce como globalización, podemos decir que vivimos en una única comunidad en la que todos estamos interrelacionados; la Aldea global.


El número de usuarios de Internet en 1998 era inferior al 5% mientras que 10 años más tarde ese porcentaje pasó al 23%.


·La brecha digital


A pesar de el gran avance para la humanidad que ha supuesto la aldea global, no todos pueden integrarse por igual en esta sociedad globalizada; esto es la causa de ciertos problemas de desigualdad relacionados con las TIC.
Pues bien, al igual que cuando se creó la imprenta el analfabetismo se convirtió en un gran problema porque impedía a cierta gente obtener los conocimientos difundidos, en la globalización también hay personas que no pueden acceder a la utilización de las TIC o que no saben como utilizarlas.


La brecha digital es la separación que existe entre las personas que utilizan las TIC a diario, y aquellas que no pueden acceder a su uso o que no saben usarlas. Esta diferencia se puede cuantificar en sectores de la población de un mismo país (brecha digital doméstica), entre países (brecha digital internacional)… etc


La brecha digital es consecuencia de otras anteriores brechas socioeconómicas, los países en vías de desarrollo que no tengan los suficientes recursos económicos no podrán facilitar los servicios de las TIC a su población; por lo que esta quedará desinformada y sin conocimiento alguno de la utilización de dichas tecnologías.


Podemos ver que la distribución de usuarios de Internet no es proporcional a la distribución demográfica del planeta.


Esto ocurre también entre las distintas clases sociales de un mismo país: la clase dominante económicamente tiene acceso sin problemas a Internet y a todos sus servicios, mientras que a medida que vayamos bajando en poder económico, a los diferentes grupos sociales les será más difícil formar parte esta aldea global.


También una de las causas de la brecha digital es la educación que se recibe, o la dificultad de acceder a ella. En todas las escuelas se debe enseñar a utilizar Internet de una forma segura, pero para ello las escuelas necesitan disponer de los recursos necesarios para sostener toda una campaña de enseñanza con nuevas tecnologías. ¿Qué ocurre? que, como se ha citado antes,si no se dispone de los suficientes recursos no se puede enseñar a utilizar las TIC. En consecuencia habrá jóvenes que reciban una mejor educación y formen parte de la sociedad globalizada, y habrá otros que reciban una peor educación y tengan muchos más problemas para utilizar las TIC.


Esto no sólo ocurre con la población joven, también existen muchos problemas con la población de más edad. El problema es que esta parte de la población no tiene educación sobre cómo utilizar Internet por lo que no pueden acceder a la información de las TIC y quedan estancados en tecnologías más antiguas. De esta manera están excluidos tecnológicamente de la sociedad.


Como hemos dicho, la brecha digital es consecuencia de otras causas socioeconómicas, pero, a su vez ella misma tiene consecuencias sobre estas brechas socioeconómicas. Contribuye a hacerlas más grandes e insalvables, volviendo más complicada todavía la situación de aquellos que estén afectados por dichas desigualdades.


·Iniciativas para frenar la brecha digital


Algunas de las iniciativas que se puede llevar a cabo para detener la brecha digital son crear y promover instrumentos que sean asequibles para la mayor parte de la población y ,de este modo, poder formar y acercar las nuevas tecnologías a los ciudadanos. Otras medidas en el ámbito doméstico son que los gobiernos estén obligados a proporcionar sus servicios sin impedimentos para la población que no forme parte de la sociedad tecnológica. Promover dichos servicios a escala de Internet, pero a su vez facilitar otras salidas para que dicha parte de la población pueda disfrutarlos como por ejemplo por vía telefónica… etc.


En cuanto al ámbito internacional se celebran distintas cumbres para poner en perspectiva avances contra la brecha digital y demás opiniones. Algunas de estas cumbres son la Cumbre Mundial sobre la Sociedad de la Información (CMSI), la campaña de Derechos en la Comunicación de la Sociedad de la Información (CRIS), etc…




·Análisis de la brecha digital doméstica en España


Estas son algunas de las diversas variables que influyen en la brecha social española:


→ Según el nivel educativo


→ Según la edad
→ Según el nivel de renta






→ Según el tamaño de la población en la que viven



· Fuentes utilizadas


-Blog sobre la brecha en México, fuente que aunque se refiera a la situación en Latino América, ha sido útil para extraer algunas conclusiones generales.
-Definición de brecha digital, fuente útil para obtener la definición de brecha digital.
-Página principal del INE, fuente de gran utilidad para los datos a nivel nacional, de una gran fiabilidad.
-Wikipedia, fuente útil para documentarse sobre los aspectos más generales pero de menor fiabilidad.
-Google, útil en cuanto a la utilización de gráficos e imágenes.


10 de enero de 2014

Ataques en la red



La conectividad sin precedentes de la era de Internet ha traído enormes ventajas sociales y económicas, pero a la vez ha planteado muchos retos nuevos. En un mundo totalmente conectado, las amenazas contra la seguridad en Internet siguen evolucionando, adelantándose a las defensas más avanzadas.

Las amenazas contra la seguridad basadas en la red han provocado robos de identidad y fraude financiero generalizados. El correo no deseado, los virus y el spyware causan graves problemas a empresas y consumidores. Una infracción de seguridad puede causar un daño irreparable a la reputación o la imagen de marca de una compañía.
Los ataques actuales contra la información son un negocio rentable y a menudo están controlados por los sindicatos del crimen organizado. Un creciente número de sofisticados modelos comerciales de ciberdelincuencia, incluido el auge de empresas delictivas, se basa en la venta de herramientas y servicios para lanzar ataques contra la red.
La tecnología de seguridad en Internet sigue progresando, y está pasando de tener un enfoque pasivo y puntual basado en productos, a tener planteamientos activos de extremo a extremo basados en reconocimiento, contención y cuarentena. Además, los proveedores de servicios de Internet (ISP) están compitiendo en seguridad y los ISP dirigidos al consumidor ofrecen seguridad de Internet dentro de su paquete de servicios.

Hackers y crackers

Una de las muchas amenazas que acechan a nuestros dispositivos son los intrusos, personas que consiguen acceder a los datos o programas de forma no autorizada (crackers, defacers, hackers, script kiddies, viruxers...).

En los años 80 apareció la cultura hacker: programadores aficionados o personas con un importante conocimiento de informática. Estos programadores no solían estar del lado de la ilegalidad, y aunque algunos conocían técnicas para violar sistemas de seguridad, se mantenían dentro del ámbito legal. Pero con el tiempo surgieron personas que utilizando su conocimiento en informática, aprovechaban debilidades o errores de algunos sistemas informáticos y los crackeaban, es decir, burlaban su sistema de seguridad muchas veces entrando en la ilegalidad.
El estimulo de un hacker para llevar a cabo sus acciones, no es otro que saciar su curiosidad o superar el reto personal de lograr evitar la seguridad del sistema, mientras que los crackers pueden estar motivados por una multitud de razones, incluyendo fines de lucro, protesta, o por el desafío.

Tanto hackers como crackers tienen elevados conocimientos de informática, sin embargo, más del 80% de los ataques son originados en plataformas Windows por aficionados con blancos aleatorios, se llega a la conclusión de que la mayoría de los intentos de intrusión de la actualidad son generados por personas no expertas ejecutando una herramienta automática (script kiddies) o se deben a ataques de gusanos, que a su vez eligen también sus objetivos aleatoriamente.

Tipos de cibercriminales

Los delincuentes se segmentan por diferentes categorías, ya que los crímenes van más allá de dañar un simple ordenador. Hoy existen delitos como fraude, robo, chantaje y falsificación. Estos son sus roles y catálogos de venta:

  • Programadores: son crackers que se dedican a comprometer servidores y robar datos, crear Troyanos, amenazas y phishing, de igual modo, mantienen la seguridad de la infraestructura de los foros.
  • Vendedores de infraestructura: son proveedores de hospedaje que permiten contenidos ilegales. Cuentan con una red muy vasta de equipos infectados y la ofrecen para hacer diferentes tipos de crímenes. Venden dispositivos infectados, acceso a otros equipos, paquetes de infecciones, servicios de spam con enlaces de phishing o infecciones de troyanos, y servicios para ocultarse en la red.
  • Vendedores de datos: trafican datos. Venden sitios de correo electrónico hackeados, direcciones de residencias de personas, tarjetas de crédito con datos personales, entre otros.
  • Defraudadores: forman pequeñas bandas o grandes organizaciones criminales compuestas por personas que se conocen en el mundo online pero que no se han visto físicamente. Cada uno tiene una habilidad que encaja en la organización.

Cómo se realizan los ciberataques

Los ciberataques pueden presentarse de diferentes maneras. Estos son algunos ejemplos que se podrían citar:
  • La propagación de virus informáticos.
  • El envío masivo de correo no deseado o SPAM.
  • La suplantación de los Remitentes de mensajes con la técnica Spoofing.
  • El envío o ingreso subrepticio de archivos espías o Keyloggers.
  • El uso de Troyanos para el control remoto de los sistemas o la sustracción de información.
  • El uso de archivos BOT del IRC (Internet Relay Chat) para el control remoto de sistemas y sustracción de información.
  • El uso de Rootkits: programas que permiten un acceso de privilegio continuo a una computadora pero que mantienen su presencia activamente oculta al control de los administradores al corromper el funcionamiento normal del sistema operativo o de otras aplicaciones.

Las redes sociales, muy 'jugosas'

Los cibercriminales están recurriendo cada vez más a las redes sociales, que son medios muy jugosos para conectar al internauta con otras webs maliciosas.

250.000 usuarios de Twitter fueron víctimas a primeros de Febrero de 2013 de un ataque cibernético. Así lo anunciaba la compañía en un post en su blog oficial, explicando cómo detectó intentos de acceso no autorizados a la plataforma, dando casualmente con el ataque en tiempo real en el momento en que revisaba accesos no autorizados a la plaraforma. Pero no es la única red social que es víctima de este tipo de ataques.



También se está incrementando el número de ataques a dispositivos móviles, como teléfonos "inteligentes" y tabletas, en donde el software malicioso se ha incrementado el 58 % en 2012 respecto al año anterior.
El número de vulnerabilidades detectadas ha sido mucho mayor en la plataforma Apple (387) que en el caso de Android (13).


El hacker más buscado de todos los tiempos: Kevin Mitnick

La lista de hackers la encabeza el norteamericano Kevin Mitnick, también conocido como “El Cóndor”. El Departamento de Justicia de Estados Unidos lo calificó como “el criminal informático más buscado de la historia" de ese país. Su foto estuvo durante mucho tiempo en los carteles de los más buscados por el FBI.
Mitnick cobró fama a partir de los años 80, cuando logró penetrar sistemas ultra protegidos, como los de Nokia y Motorota, robar secretos corporativos y hasta hackear a otros hackers.
Lo arrestaron en 1995 y su encarcelamiento alcanzó gran popularidad entre los medios por la lentitud del proceso y las estrictas condiciones a las que estaba sometido (se le aisló del resto de los presos y se le prohibió realizar llamadas telefónicas durante un tiempo por su supuesta peligrosidad).
Tras su puesta en libertad en 2002 se dedica a la consultoría y el asesoramiento en materia de seguridad, a través de su compañía Mitnick Security.


Manipulación del sonido en la música profesional.



Manipulación del sonido en el mundo de la música profesional








En esta nueva entrada del blog daremos una explicación sobre como se manipula el sonido porque¿ cuando, por ejemplo, vamos a un concierto, la voz o la calidad y limpieza del sonido es igual? ¿Qué pasa ahí?Pues bien, comencemos a entender todo lo que esta detrás del sonido...


Las personas
                                                                                                                                                    
Aunque hoy en día, una sola persona con un equipo informático y determinado hardware, es capaz de obtener unos resultados satisfactorios en el retoque musical, en el mundo profesional, y dentro del campo de la “manipulación” de sonidos, hay toda una serie de profesionales implicados en la obtención de un resultado comercial aceptable.Entre estos profesionales (centrándonos solamente en los aspectos técnicos musicales ), los ingenieros de sonido, se ocupan de la grabación, manipulación, mezcla y reproducción de sonidos.Aprovechan de una manera creativa la tecnología para producir sonidos para películas, radio, televisión, música e incluso juegos de ordenador.Dentro de los procesos de la señales de audio, y por medio de algoritmos, los ingenieros de sonido manipulan las señales de audio yendo desde las formas de la señal (reverberación), la propia codificación (mp3) o alternativamente cancelar el eco (skype) o llevar a categorizar la música (shazam)
Dentro del campo de la música, los ingenieros de sonido se encargan de investigar y describir temas relacionados con el diseño de instrumentos electrónicos tales como sintetizadores, etc, con la voz humana (física y neurofisiología del canto), análisis de audio por ordenador, musicoterapia, y la percepción y conocimiento de la música.

También en el campo de la voz (fuera de la música) se ocuparían de la producción, procesamiento por ordenador, y percepción de la voz asegurando que es transmitida inteligible, eficientemente y con alta calidad, en salas, hacia el público y a través de teléfonos móviles
En el área específica de la música profesional hay 4 etapas de la producción comercial :
  • grabación
  • edición
  • mezcla
  • mastering
Cada una de ellas está desarrollada por un ingeniero que está especializado en esa parte de la producción:


Ingeniero de Estudio – que trabaja dentro de un estudio, tanto con un productor como independientementeIngeniero de Grabación – el ingeniero que graba el sonido.

Ingeniero de Mezclas – la persona que crea mezclas con múltiples pistas de grabaciones. Es muy habitual en grabaciones comerciales que son grabadas en un estudio y más tarde mezcladas por diferentes ingenieros en otros estudios.

Ingeniero Mastering – la persona que mezcla las pistas finales que el ingeniero de mezclas produce . Elabora cualquier ajuste final al conjunto del sonido en la etapa final antes de la elaboración industrial . Esta persona usa los principios de la ecualización y compresión que afecta al “color” del sonido

Ingenieros de Directo (“Live”):Ingeniero Front of House (FOH) – la persona encargada del refuerzo del sonido .Típicamente incluye la planificación e instalación de altavoces, cableado y equipamiento de la mesa de mezclas durante el espectáculo. Puede o no incluir lo que se llama “foldback sound” que podríamos denominar “sonido de retorno” El ingeniero de directo escucha la fuente e intenta correlacionarlo con la capacidad del sistema .

Responsables de micrófonos inalámbricosFoldback or Monitor engineer – El término “"foldback" es un término antiguo que se refiere a la práctica de poner altavoces para que la señal que va hacia el público desde la mesa de mezclas al palco donde el/los artistas puedan oírse a si mismos mientras suenan. Los ingenieros de mesa generalmente tienen un audio separado del que escucha el público , para satisfacer las necesidades de cada artista del stage. “Pinganillos” para la oreja, mesas de mezclas digitales y una variedad de altavoces “cerrados” (que crean un ambiente concreto en un área) son usados habitualmente. Ademas, la mayoría deben estar familiarizados con equipos inalámbricos o de radiofrecuencia y deben comunicarse personalmente con el/los artistas durante la actuación

Ingeniero de sistemas – son los responsables del diseño de los modernos sistemas que se “dirigen” al público y que a menudo son muy complejos. Suele ser el responsable del día a díaIngeniero postproducción – la persona que edita y mezcla audio para películas y/o programas de televisión

Las herramientas 
                                                                                                                                                               La herramienta principal tanto en el directo como en el estudio es la mesa de mezclas. En ella se “mezcla”, enruta y cambia el nivel, timbre y/o dinámica de la señal de audio.. Pueden mezclar señales analógicas o digitales. Las señales modificadas (voltajes o muestras digitales) son sumadas para producir la señal combinada de salida. Un ejemplo de una aplicación sencilla sería poder unir las señales que se originan en dos micrófonos separados (por ejemplo los que usan dos cantantes de un dueto) para ser oído a través de un conjunto de altavoces simultáneamente. Cuando se usa en sesiones en directo, la señal producida por el mezclador generalmente es enviada directamente al amplificador.La estructura básica de una mesa de mezclas es: canales de entrada, controles de máster y medidas de nivel de sonido.

En los canales de entrada hay multitud de botones y deslizadores que es básicamente donde la señal es amplificada o atenuada, llevando la señal a un nivel de proceso. Es en este punto donde la mayoría de las interferencias son eliminadas y las señales balanceadas. También en esta fase se puede trabajar la señal que puede ser reenviada al artista en el escenario.
Además los controles de los canales afectan a la ecualización de la señal separadamente, atenuando o amplificando un rango de frecuencias, por ejemplo, bajos, medios, agudos. Muchas mesas de mezclas tienen un ecualizador parametrizado en cada canal y tienen un control de ecualizador general en la salida.
Monitoreado y medidores:
Para poder operar eficazmente el sistema se precisa escuchar, de diferentes formas y en diferentes puntos, las diferentes señales con las que se está trabajando. Para ello hay un sistema que permite monitorear cada una de ellas en los diferentes puntos de la mesa. Este monitoreado no solo se realiza acústicamente, sino que mediante un sistema de medidores se puede ver los diferentes niveles y fases de las señales que se desean controlar.
En los controles de salida podemos distinguir entre los "grupos" y los "máster". Los grupos y máster tienen apariencia muy similar a la de los canales de entrada, pero la señal la reciben de los buses, también pueden tener alguna entrada exterior y puntos de inserto. Permiten controlar varias señales de entrada a la vez. Los "máster" son los controles de salida de la señal de programa.

Mesas digitales:

En la última década el siglo XX empezó a desarrollarse el audio digital. Con el aumento de la capacidad de procesamiento y la generalización de las instalaciones de esta tecnología se comenzó a desarrollar las mesa de mezclas digitales. En ellas la consola de control es un mero periférico que únicamente facilita la interfase con el usuario. El procesamiento de las señales se realiza mediante software por lo que las señales en ningún momento pasan por los elementos de control y no precisando una estructura fija previa.Los sistemas digitales de mezcla suelen ser dispersos, es decir, constan de varios módulos repartidos por la instalación. Uno de ellos es el encargado de realizar el procesamiento, es el llamado "DSP" (Digital Signal Processor) que es el corazón del mezclador. Este módulo es controlado por la consola, que suele tener una apariencia muy similar a las analógicas, al cual suele estar unido por una simple comunicación serie o ethernet. El DSP precisa de diferentes módulos de interface para la adaptación de las señales de entrada y salida al sistema y un módulo de monitoreado.
Los módulos de interface suelen contener los convertidores analógicos digitales para las señales de micrófono y línea analógica, así como para los diferentes formatos digitales de audio (el más normal es el AES/EBU) incluyendo las interfaces MADI. También tienen los convertidores digital analógico para cuando se precisan salidas analógicas y los diferentes interfaces para los estándares de audio digital que se utilicen.

El módulo de monitoreado está destinado a proporcionar las salidas a los diferentes monitores de audio precisos.
Los diferentes interfaces, que pueden estar ubicados en lugares remotos y unidos al DSP mediante MADI o un sistema similar, convergen en el DSP o en un equipo que hace de HUB y pasa los múltiples canales al procesador (por ejemplo en el caso de las mesa VISTA de Studer esta comunicación se hace mediante cables de red informática y un protocolo propiedad de Studer llamado MADI SH que permite la transferencia simultánea de 192 canales de audio). El DSP es controlado a través de la consola.
Es en este punto donde actualmente se hacen las manipulaciones sobre las señales.

¿Cómo se retoca una grabación?
                                                                                                                                                                                                Incluso en el mejor día cantando de un artista, una nunca sonará como suena en su último CD. Ello es debido a que los músicos profesionales tienen la ayuda de los ingenieros de sonido para hacer que sus ritmos suenan excelentes, el sonido crezca y sus voces no tengan defectos.
Los ingenieros de sonido en el estudio de grabación mueven los faders, giran los botones y hacen click con el ratón cuando los artistas acaban sus pistas para el álbum. Si se quiere que el bajo suene mas fino, ellos saben que micrófono usar y que nivel darle. Los ingenieros no solo reciben ordenes, sino que hace sugerencias para hacer que el sonido del artista suene mejor
Hacen un trabajo entre la ciencia y el arte. Para alcanzar los objetivos creativos de su cliente, necesitan usar un amplio abanico de herramientas digitales y analógicas- Necesitan compenetrarse con el artista para comprender sus necesidades y entonces tocar los botones correctos para hacer el sueño musical una realidad.
Pero no están reducidos sólo a la industria de la música. Cada vez son más solicitados en todas las áreas donde el sonido es grabado para cualquier medio de emisión. Trabajan con videojuegos donde graban la música o los efectos especiales. En la televisión y películas en la parte de postproducción e incluso en los podcasts para la web o en los clips de los juguetes parlantes.

Un poco de física del sonido:
                                                                                                                                                                                     ¿Qué se podría hacer si se canta desentonando?
Pocos cantantes son perfectos. Algunas veces el tono de su voz pierde la nota que ellos están tratando de alcanzar. Si están un poco desentonado, la pista vocal puede ser rescatada con un poco de ayuda de la ciencia de procesamiento de señal. El tono de una nota depende de la frecuencia que la onda del sonido produce. Por ejemplo, la Fa sostenida es generalmente definida con una frecuencia de 440 Hz. Por tanto, manipulando la frecuencia podemos producir una nota diferente, o tocar una nota exacta desde un ruido que esta completamente fuera de tonosLa escala musical está dividida en 12 notas cada una separada por un semitono (la diferencia entre 2 teclas adyacentes en un piano o traste de una guitarra. El objetivo de la corrección de notas es entonar ligeramente arriba o abajo cerca del semitono.
En el sistema utilizado habitualmente en los instrumentos MIDI en los que el tono DO es asignado a un número con 440 Hz siendo 69 y cada semitono incrementando o decreciendo la nota número 1.
Si un intento de cantar la nota DO se llega, digamos a 445 Hz, entonces usando el ordenador corregimos esa frecuencia hacia abajo para asegurarnos que el sonido grabado está entonado.
Sin embargo, los ingenieros de sonido no pueden simplemente cambiar la frecuencia en sí misma. Dado que la frecuencia de la onda está relacionada con su velocidad mediante su longitud de onda, la duración del sonido podría cambiar también (esta es la razón por la que el aumento de velocidad de una cinta suena de manera extraña). La frecuencia puede ser ser alterada sin cambiar la velocidad digital.

La música en números: Aunque es posible alterar las señales analógicas, aquellas basadas directamente en la señal eléctrica generada por un micrófono o por una guitarra, un rango mas amplio de efectos es posible cuando se trabaja con señales digitales.
Una señal digital usa valores discretos (1 y 0) en lugar de valores continuos, así que convertir una señal analógica requiere tomar muestras de puntos discretos o muestras (samplers) Así muestreos más amplios llegan a ser mas próximos al sonido original.
La linea verde es la señal analógica
continua. Los puntos azules son los puntos que se quieren “muestrear”

Estas señales digitales pueden ser alteradas de manera que un sonido produce la nota correcta musical usando un sintetizador de fase
Este trabaja cambiando inicialmente la duración del sonido sin alterar su frecuencia y después cambiando la frecuencia para alcanzar la nota correcta y restaurar la duración original.
Su nombre viene de su uso de la información de fase de la señal para manipular la señal de la manera deseada.
Rompe la señal de audio en muchas mas pequeñas, solapando marcos y después cambiando el espaciado de estos marcos para cambiar la duración total del sonido. En la practica , es una tarea complicada que requiere el uso de matemáticas avanzadas. para convertir la señal en una forma que pueda ser manipulada de esta manera.
El sonido es resampleado para volverlo a su forma duración original y llegar a la nota deseada.


SOFWARE
Maneja mezclas más grandes con miles de clips. Aprovecha los nuevos tamaños de sampler VI para lograr sonidos instrumentales más realistas.                                                                                                                                                                          Entre el software profesional que se utiliza en la industria destaca PRO TOOLS (http://www.avid.com/ES/products/pro-tools-software/features)Entre sus posibilidades, tenemos;cantidades colosales de instrumentos virtuales y efectos para producir mezclas más complejas y de mejor sonido.


  • Puedes acelerar en hasta 150 veces la preparación de tu submezcla o de la mezcla definitivaGracias a los búferes de entrada y reproducción de baja latencia, puedes monitorizar las entradas de grabación en sistemas nativos con latencia ultra-baja sin sacrificar el rendimiento de los plug-ins
  • Acelera y simplifica las búsquedas de archivos de audio con el Navegador de espacios de trabajo optimizado
  • Automatiza pistas mientras las grabas (ideal para entornos de sonido en directo y Dolby ATMOS)
  • Maximiza la cantidad de plug-ins con el procesamiento dinámico en el host, que reasigna los recursos según sea necesario
  • Monitoriza los envíos de plug-ins (PT y PT|HD) y la reducción de ganancia (solo PT|HD) con los nuevos minimedidores en cada canal
  • Disfruta de mezclas y procesamiento más precisos con plug-ins de automatización con marca de tiempo
  • Permite cambiar el tempo y el timing de cualquier clip (o de una composición entera) sobre la marcha. Con Elastic Pitch podrás corregir notas, crear armonías y cambiar el transporte de clips en tiempo real sin modificar el tempo.
  • Podrás corregir rápidamente problemas de timing en varias pistas o cambiar la sensación rítmica para obtener otro groove. Además, puedes extraer el timing y el groove de un ritmo de batería y aplicar esa plantilla a la parte del bajo para asegurar que tu sección rítmica se ajusta como un guante.
  • La integración con Gobbler permite enviar sesiones completas y mezclas a otros colaboradores rápidamente, y hacer una copia de seguridad y sincronizar sesiones en la nube con seguridad. Gobbler lo hace automáticamente mientras trabajas. La compatibilidad con SoundCloud permite convertir archivos de forma privada con otros colaboradores, o compartir proyectos terminados con el resto del mundo. Y pueden hacerse mezclas mediante bounce a tu librería iTunes para compartir con otros en tu red.


VÍDEOS

Podemos consultar los siguientes vídeos para tener una idea más clara y gráfica de lo que hemos contando en este documento:                                                                                                                           1  
2

Espero que os gustase este trabajo y que fuera de vuestro interés,y así ahora entendáis un poco mejor como funciona el complicado mundo de la música y el sonido.

Trabajo realizado por: Laura Prieto