top of page
Vuelve pronto
Una vez que se publiquen entradas, las verás aquí.

Aprende mas

¿Qué es una red? Es un grupo de PC conectas entre sí, que permiten compartir información y equipo.

 

En su nivel elemental una red de equipo consiste en dos equipos conectados entre sí con un cable que les permite compartir datos. Todas las rede de quipo, independientemente de su nivel de sostificasion.

 

1.-Tamaño de red

Una red puede ser de cualquier tamaño por ejemplo conectar dos pc en casa para compartir información crean una red simple. Las compañías pueden tener redes de varias docenas y cientos de PCs. Internet es la red más grande del mundo y conecta miles de PCs alrededor del mundo.

 

2.-Inicializar

General mente se necesita que el usuario de la red se identifique antes del acese a la información, este proceso se conoce como inicializar. Cada usuario debe tener nombre y contraseña personalizadas para acceder a una red.

 

3.-Compartir información, programas y recursos

Puede utilizar una red. Esta información puede ser de cualquier tipo, como documentos creados en un programa de procesador de palabras o imágenes las redes también permiten a las personas a accesar programas de almacenados a una PCs central como una hoja electrónica o un procesador de palabras.

 

4.-Hardware para redes

El hardware de las redes incluye los componentes físicos que las conforman. Todas las redes necesitan de un hardware especial para funcionar (cables, conectores, tarjetas de interfaz).

 

5.-Software para redes

Consiste en programas administradores de la red que proveen  los servicios y permiten que las PCs se comuniquen y compartan información (sistema operativo de la red, unidades de la red, software de servicio , software de aplicación y administración).

 

6.-Redes punto a punto

Permite que las PCs en red compartan información y recursos.

Cada máquina en este punto de red almacena su propia información y recursos y no existen PCs centrales que controlen la red.

Internet

 

Origen de internet:

Los orígenes de Internet se remontan a más de veinticinco años atrás, como un proyecto de investigación en redes de conmutación de paquetes, dentro de un ámbito militar. A  finales de los años sesenta (1969), en plena guerra fría, el Departamento de Defensa Americano (DoD) llegó a la conclusión de que su sistema de comunicaciones era demasiado vulnerable. Estaba basado en la comunicación telefónica (Red Telefónica Conmutada, RTC), y por tanto, en una tecnología denominada de conmutación de circuitos, (un circuito es una conexión entre llamante y llamado), que establece enlaces únicos y en número limitado entre importantes nodos o centrales, con el consiguiente riesgo de quedar aislado parte del país en caso de un ataque militar sobre esas arterias de comunicación.

 

Como alternativa, el citado Departamento de Defensa, a través de su Agencia de Proyectos de Investigación Avanzados (Advanced Research Projects Agency, ARPA) decidió estimular las redes de ordenadores mediante becas y ayudas a departamentos de informática de numerosas universidades y algunas empresas privadas. Esta investigación condujo a una red experimental de cuatro nodos, que arrancó en Diciembre de 1969, se denominó ARPAnet. La idea central de esta red era conseguir que la información llegara a su destino aunque parte de la red estuviera destruida.

 

ARPA desarrolló una nueva tecnología denominada conmutación de paquetes, cuya principal característica reside en fragmentar la información, dividirla en porciones de una determinada longitud a las que se llama paquetes. Cada paquete lleva asociada una cabecera con datos referentes al destino, origen, códigos de comprobación, etc. Así, el paquete contiene información suficiente como para que se le vaya encaminando hacia su destino en los distintos nodos que atraviese. El camino a seguir, sin embargo, no está preestablecido, de forma que si una parte de la red cae o es destruida, el flujo de paquetes será automáticamente encaminado por nodos alternativos. Los códigos de comprobación permiten conocer la pérdida o corrupción de paquetes, estableciéndose un mecanismo que permite la recuperación. 

 

Descripción de internet: Internet es una red mundial de computadoras que permite a sus usuarios mediante una computadora o una terminal conectarse hacia servidores para la obtención de información.La cantidad de información disponible en internet se estima a miles de terabytes y es simple mente variedad desde publicidad de un producto asta información de investigación científica.

Para hacer esto posible se utilizó  un software que contiene muchos programas y este software es llamado TCP/IP que gracias a él internet funciona sin problemas.

 

Ventajas y desventajas de internet

                       Unas grandes ventajas que internet puede ofrecer

 

  • Acceso inmediato a la información, internet contribuye con un medio rápido y económico de exceder a la información.

 

  • Análisis de producto y mercado, en internet es posible encontrar información acerca de productos que se desea obtener.

 

  • Correo electrónico, en la actualidad es la forma más efectiva de comunicarse con personas de todo el mundo

 

  • Publicidad, Mediante una página web todos los usuarios de internet puede enterarse del producto.

                                      Y entre las desventajas

 

  • Inseguridad, de los hackers (que sacan información importante de empresas)

 

  •  Información nociva, Así como es de fácil encontrar información buena, es posible encontrar de la misma forma información mala, desagradable (pornografía, violencia explícita, terrorismo) que puede afectar especialmente a los menores.

  •  

         

 

Conexión por marcación

La forma en la que una computadora se pueda conectar a los servicio se internet es mediante una red telefónica para esto la computadora debe conectarse a una red de marcación el cual se conecta a una red telefónica como un aparato normal.

Para que esto funcione la computadora debe de tener el software para que esto funcione para utilizar el modem que a su vez la el modem está conectado a internet, la computadora contesta la llamada y  ahí se proporciona en acceso a internet. 

 

 

Funcionamiento de internet

Internet principal mente fue creado para que las computadoras puedan comunicarse entre sí mediante mensajes, pero para esto deben poseer el software que les permita asarlo.

Todos los servicios de internet usan el protocolo de internet. Para ello la computadora debe tener instalado el software de de IP y toda computadora que lo utilice crea datagramas IP que son paquetes que siguen las especificaciones de IP

Cuando una computadora envía un datagrama IP crea un mensaje que será enviado a otra computadora, esto quiere decir que las computadoras se comunican usando los Datagramas IP.

 

Por ejemplo:

  • Correo electrónico

  • La trasferencia de archivos

  • Noticias

  • Comunicación

 

También esta www. (Word Wide  Web) para acceso a datos, Archí para la búsqueda de archivos

 

Conclusión: El internet es una herramienta de muchos usos y muy compleja que le trae a la gente comunicación, trabajos, noticias, juegos, videos y así como se usa para una variedad de cosas también es útil para que se dé el soporte técnico a distancia mediante fuentes de comunicación vía  internet con software como skype , watsapp y teamspeak por ejemplo o por sitios de internet como foros, Facebook.

1.- Tianhe-2 (MILKYWAY-2): UNIVERSIDAD NACIONAL DE TECNOLOGÍA DE DEFENSA

Tianhe-2, un superordenador desarrollado por la Universidad Nacional de Tecnología de Defensa Nacional de China, mantiene su posición como el sistema del mundo No. 1 con un rendimiento de 33,86 petaflop / s. Fue construido por la Universidad Nacional de China de Tecnología de Defensa (NUDT) en colaboración con la empresa de TI chino Inspur. Según NUDT, Tianhe-2 se puede utilizar para aplicaciones de simulación, análisis y de seguridad del gobierno. Con 16.000 nodos de computación, cada uno compuesto por dos procesadores Intel Ivy Bridge Xeon y tres chips Xeon Phi, que representa la mayor instalación mundial de Ivy Bridge y Xeon Phi fichas, contando con un total de 3.120.000 núcleos. [3] Cada uno de los 16.000 nodos poseen 88 gigabytes de memoria (64 utilizados por los procesadores Ivy Bridge, y 8 gigabytes para cada uno de los procesadores Xeon Phi).

 

2.- TITAN: OAK RIDGE NATIONAL LABORATORY

Cuando la 40 edición de la lista fue lanzado a principios de SC12, la posición No. 1 fue reclamada por Titan, un sistema procesador de 552,960 con un rendimiento Linpack de 17,6 petaflop / s. Titan del Laboratorio Nacional de Oak Ridge es un sistema Cray XK7 que se basa en una combinación de GPUs y CPUs tradicionales para hacer que la supercomputadora más potente del mundo. Cada uno de 18.688 nodos de Titán contiene una GPU NVIDIA Tesla K20 junto con un procesador CPU de 16 núcleos AMD Opteron 6274, dando al sistema un rendimiento máximo de más de 27 petaflop  / s. Titán también tiene más de 700 terabytes de memoria.

 

3.- SEQUOIA: LAWRENCE LIVERMORE NATIONAL LABORATORY

Sequoia, el sistema IBM BlueGene / Q instalado en el Laboratorio Nacional Lawrence Livermore de Energía alcanzado 16,32 petaflop / s rendimiento al correr el benchmark Linpack usando 1.572.864 núcleos. Sequoia se compone de 98.304 nodos de cómputo; 1,6 millones de núcleos; y 1.6 petabytes de memoria.

 

4.- K COMPUTER: RIKEN ADVANCED INSTITUTE FOR COMPUTATIONAL SCIENCE

Una supercomputadora japonesa capaz de realizar 8,16 billones de cálculos por segundo (petaflop / s) se convirtió en el nuevo sistema de número uno, poniendo Japón de nuevo en el primer puesto

El equipo K, construido por Fujitsu, originalmente combina 68,544 SPARC64 VIIIfx CPUs, cada uno con ocho núcleos, para un total de 548.352 núcleos-casi el doble que cualquier otro sistema en el momento.

 

5.- TIANHE-1A: NATIONAL SUPERCOMPUTING CENTER IN TIANJIN

el sistema Tianhe-1A chino en el Centro Nacional de Supercomputación en Tianjin, el logro de un nivel de rendimiento de 2,57 petaflop / s.  

Tianhe-1 es un diseño híbrido con 14.336 procesadores Intel Xeon y 7.168 GPUs NVIDIA Tesla utilizados como aceleradores. Cada nodo consta de dos GPUs unidos a dos procesadores Xeon.

 

6.- JAGUAR: OAK RIDGE NATIONAL LABORATORY

Jaguar se encuentra en el Departamento de Servicio de Oak Ridge Liderazgo Computing de Energía. Jaguar registró un rendimiento Linpack de 1,759 petaflop / s, y se convirtió en el segundo equipo en romper la barrera petaflops en 2009. El sistema jaguar tubo muchos cambios para la versión final  para el año 2009, el sistema resultante tenía más de 200.000 núcleos de procesamiento conectados internamente con la red de Cray Seastar2 +. Las partes XT4 y XT5 de Jaguar se combinaron en un solo sistema usando una red InfiniBand.

 

 

7.- ROADRUNNER: LOS ALAMOS NATIONAL LABORATORY

El rendimiento alcanzado mecanizada de 1,026 petaflop / s - convirtiéndose en el primer superordenador en alcanzar este hito para la epoca.

El sistema Roadrunner se basa en las cuchillas QS22 de IBM que se construyeron con versiones avanzadas del procesador en el Sony PlayStation 3.

 

8.- BLUEGENE/L: LAWRENCE LIVERMORE NATIONAL LABORATORY

En noviembre de 2004, el sistema / L beta BlueGene DOE / IBM fue capaz de reclamar la posición No. 1 con su registro Linpack comparar el desempeño de 70,72 teraflops / s. Este sistema fue ensamblado y probado en el sitio de IBM Rochester.

En junio de 2005, el sistema se duplicó en tamaño, desde la configuración original y alcanzó un nuevo récord de rendimiento Linpack de referencia de 136,8 Tflop / s. En noviembre de 2005, el BlueGene / L de nuevo se había duplicado en tamaño y alcanzó un nuevo récord de rendimiento Linpack referencia de 280,6 Tflop / s).

Cuando se publicó la lista de noviembre de 2007, BlueGene / L todavía estaba en la cima, después de haber sido ampliado significativamente para lograr un rendimiento de referencia Linpack de 478,2 TFop / s.

 

9.- THE EARTH SIMULATOR: EARTH SIMULATOR CENTER

Construido por NEC, el Simulador de la Tierra se basa en su arquitectura SX-6. Constaba de 640 nodos con ocho procesadores vectoriales y 16 gigabytes de memoria en cada nodo, para un total de 5.120 procesadores y 10 terabytes de memoria. Dos nodos se instalaron por gabinete x 1.4 metros x 2 metros a 1 metro. Cada gabinete consume 20 kW de potencia. El sistema tenía 700 terabytes de almacenamiento en disco (450 para el sistema y 250 para los usuarios) y 1,6 petabytes de almacenamiento masivo en las unidades de cinta.

 

10 ASCI WHITE: LAWRENCE LIVERMORE NATIONAL LABORATORY

en noviembre de 2000 con 4,9 teraflop / s de rendimiento Linpack. Este sistema fue construido con 512 nodos, cada uno de los cuales contenía 16 procesadores IBM Power3 usando una memoria compartida.

 

11.- ASCI RED: SANDIA NATIONAL LABORATORY

ASCI Red superordenador de Intel fue el primero teraflop / s equipo, tomando el puesto No.1 en la lista TOP500 noveno en junio de 1997 con un rendimiento Linpack de 1.068 teraflops / s.

Intel ASCI Red marcó el comienzo de una nueva era superordenador. A mediados de los 90, cuando los ordenadores vectoriales empezaron a ser menos importante, el Departamento de Energía de Estados Unidos ASCI del programa, que se centró en aplicaciones de defensa (Strategic Computing Initiative acelerado), abrió una nueva fuente de fondos. ASCI Red fue el primer producto de esta iniciativa y sentó las bases para el dominio de Estados Unidos en la producción y aplicación de los superordenadores. ASCI Red también fue un supercomputador notable desde el punto de vista técnico:

 

12.- CP-PACS: UNIVERSITY OF TSUKUBA

 

El desarrollo de la computadora paralela CP-PACS involucró una estrecha colaboración de los científicos de la computación y los físicos del proyecto. Discusiones conjuntas se realizaron en las necesidades computacionales de los físicos, por un lado, y las posibles arquitecturas que podrían satisfacerlas dentro de los límites de lo que sería técnicamente posible, por otra parte. El diseño básico de la computadora CP-PACS se llegó como resultado de esta colaboración. Para la fabricación del equipo CP-PACS, Hitachi Ltd. fue seleccionado en el verano de 1992 por un proceso de licitación formal. Los miembros del proyecto trabajaron en estrecha colaboración con Hitachi Ltd para desarrollar el equipo.

 

13.- HITACHI SR2201: UNIVERSITY OF TOKYO

El Hitachi SR2201 era un sistema paralelo de memoria distribuida que se introdujo en marzo de 1996. Su procesador, el 150 MHz HARP-1E basado en la PA-RISC 1.1 arquitectura, resolvió el caché penalti fallado por el procesamiento de pseudo vector (PVP). En PVP, los datos se cargó por la obtención previa de un banco de registro especial, sin pasar por la memoria caché. Cada procesador tiene un rendimiento pico de 300 Mflop / s, dando la SR2201 un rendimiento máximo de 600 Gflop / s. Hasta 2048 los procesadores RISC podrían estar conectados a través de una red travesaño dimensional de alta velocidad de tres, que fue capaz de transferir datos a 300 MB / s sobre cada enlace.

De la mano de esta evolución fue la tendencia hacia los nodos de computación construidas con tablas que viene directamente de las estaciones de trabajo y ser compatible a nivel binario con los sistemas de estaciones de trabajo. Los ejemplos más dominantes fueron el Power Challenge, la IBM SP / 2 y Convex SPP. En total, estos sistemas representaron el 53 por ciento de todos los sistemas 500.

Top 500 super computadoras 

 Clases de Soporte y mantenimiento CBTIS #33            Por Alfredo Martniez Damian

 

  • facebook-square
  • Twitter Square
  • Google Square
bottom of page