domingo, 22 de abril de 2012

COMO PONCHAR UN CABLE DE RED, CABLE UTP

Crear un cable de red

Para conectar un PC a otro PC el cable más popular es el cable UTP. Hay que tener en cuenta que hay varias diferentes categorías.

Elementos principales
El cable UTP, en este caso el cable es categoría 5




2 Conectores plus RJ-45
 ponchadora

Pasos para ponchar el cable:

1. Medimos cuánto debemos cortar, para ello calculamos colocando el RJ45 sin utilizar la ponchadora, meramente para medir la distancia.



2. Cortamos el revestimiento del cable "sin cortar los cables interiores" de ésta forma:


3. Ahora buscamos los hilos de protección y los separamos, es decir peinamos el cable



4. Ahora separamos los pares trenzados, así


5. El siguiente paso es ordenar los pares trenzados de acuerdo a las normas existentes, la norma A o la norma B, hay que tener en cuenta que de acuerdo al tipo de cable que se quiere crear se usan las diferentes normas. Estas son las normas:

La norma T568b

1. Blanco / naranja

2.             / naranja

3. Blanco / verde

4.            / azul

5. Blanco / Azul

6.            / verde

7. Blanco / Café

8. Café

Dependiendo del tipo de cable que queremos crear usamos el tipo de norma, es decir:

Si se quiere crear un
cable cruzado (cuando las funciones de los equipos a conectar son iguales), por ejemplo para conectar dos PC punto a punto usamos las dos normas la A y la B, la norma A por un lado del cable y la norma B por otro el lado del cable.

Si se quiere crear un cable directo (cuando las funciones de los equipos a conectar sean diferentes), por ejemplo para conectar un PC con un Switch usamos cualquiera de las dos normas pero esa norma que elegimos la usamos en ambos lados del cable.
Es importante organizar bien el cable según la norma.

6. Habiendo organizado el cableado juntamos muy bien los cables y procedemos a dejarlos del mismo tamaño cortándolos de la siguiente forma: (La ponchadora trae una navaja pequeña "generalmente")


7. Ahora los cables están listos para ser insertados en el conector plus RJ-45 así:



8. El último paso es "ponchar" es decir, colocar el conector RJ-45 dentro de la ponchadora y apretar como unas pinzas para que la cuña del conector se quiebre y quede apretado (firme) el conector con el cable y no se vaya a soltar.

Se debe apretar las patas, como unas tijeras y sonará un ruido como que se parte el plástico del conector RJ45, eso es normal porque es cuando la cuña se quiebra para apretar el cable y no soltarse.

Si no suena, o quedo mal (esta suelto el conector del cable) o simplemente no sonó.

Y este es todo lo que se debe hacer para ponchar un cable UTP.

Y ahora para probar si el cable quedo bien ponchado y si funciona solo resta probarlo con un dispositivo que se usa para probar cables UTP o crear una red punto entre dos PC y si logra hacer
ping el cable funciona correctamente
Cable coaxial
El cable coaxial fue creado en la década de los 30, y es un cable utilizado para transportar señale eléctricas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo, encargado de llevar la información, y uno exterior, de aspecto tubular, llamado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes Entre ambos se encuentra una capa aislant llamada dieléctrico, de cuyas características dependerá principalmente la calidad del cable. Todo el conjunto suele estar protegido por una cubierta aislante.
El conductor central puede estar constituido por un alambre sólido o por varios hilos retorcidos de cobre; mientras que el exterior puede ser una malla trenzada, una lámina enrollada o un tubo corrugado de cobre o aluminio. En este último caso resultará un cable semirrígido.

Debido a la necesidad de manejar frecuencias cada vez más altas y a la digitalización de las transmisiones, en años recientes se ha sustituido paulatinamente el uso del cable coaxial por el de fibr óptica, en particular para distancias superiores a varios kilómetros, porque el ancho de banda de esta última es muy superior
PROTOCOLOS
Características
Un protocolo es el conjunto de normas para comunicarse dos o más entidades ( objetos que se intercambian información ) . Los elementos que definen un protocolo son :
  • Sintaxis : formato , codificación y niveles de señal de datos .
  • Semántica : información de control y gestión de errores .
  • Temporización : coordinación entre la velocidad y orden secuencial de las señales .
Las características más importantes de un protocolo son :
  • Directo/indirecto : los enlaces punto a punto son directos pero los enlaces entre dos entidades en diferentes redes son indirectos ya que intervienen elementos intermedios .
  • Monolítico/estructurado : monolítico es aquel en que el emisor tiene el control en una sola capa de todo el proceso de transferencia . En protocolos    estructurados , hay varias capas que se coordinan y que dividen la tarea de comunicación .
  • Simétrico/asimétrico : los simétricos son aquellos en que las dos entidades que se comunican son semejantes en cuanto a poder tanto emisores como consumidores de información . Un protocolo es asimétrico si una de las entidades tiene funciones diferentes de la otra ( por ejemplo en clientes y servidores ) .
Funciones
1. Segmentación y ensamblado :generalmente es necesario dividir los bloques de datos en unidades pequeñas e iguales en tamaño , y este proceso se le llama segmentación . El bloque básico de segmento en una cierta capa de un protocolo se le llama PDU ( Unidad de datos de protocolo ) . La necesidad de la utilización de bloque es por :
La red sólo admite la transmisión de bloques de un cierto tamaño .
El control de errores es más eficiente para bloques pequeños .
Para evitar monopolización de la red para una entidad , se emplean bloques pequeños y así una compartición de la red .
Con bloques pequeños las necesidades de almacenamiento temporal son menores .
Hay ciertas desventajas en la utilización de segmentos :
La información de control necesaria en cada bloque disminuye la eficiencia en la transmisión .
Los receptores pueden necesitar interrupciones para recibir cada bloque , con lo que en bloques pequeños habrá más interrupciones .
Cuantas más PDU , más tiempo de procesamiento .
2. Encapsulado : se trata del proceso de adherir información de control al segmento de datos . Esta información de control es el direccionamiento del emisor/receptor , código de detección de errores y control de protocolo .
3. Control de conexión : hay bloques de datos sólo de control y otros de datos y control . Cuando se utilizan datagramas , todos los bloques incluyen control y datos ya que cada PDU se trata como independiente . En circuitos virtuales hay bloques de control que son los encargados de establecer la conexión del circuito virtual . Hay protocolos más sencillos y otros más complejos , por lo que los protocolos de los emisores y receptores deben de ser compatibles al menos .Además de la fase de establecimiento de conexión ( en circuitos virtuales ) está la fase de transferencia y la de corte de conexión . Si se utilizan circuitos virtuales habrá que numerar los PDU y llevar un control en el emisor y en el receptor de los números .
4. Entrega ordenada : el envío de PDU puede acarrear el problema de que si hay varios caminos posibles , lleguen al receptor PDU desordenados o repetidos , por lo que el receptor debe de tener un mecanismo para reordenar los PDU . Hay sistemas  que tienen un mecanismo de numeración con módulo algún número ; esto hace que el módulo sean lo suficientemente alto como para que sea imposible que haya dos segmentos en la red al mismo tiempo y con el mismo número .
5. Control de flujo : hay controles de flujo de parada y espera o de ventana deslizante . El control de flujo es necesario en varios protocolos o capas , ya que el problema de saturación del receptor se puede producir en cualquier capa del protocolo .
6. Control de errores : generalmente se utiliza un temporizador para retransmitir una trama una vez que no se ha recibido confirmación después de expirar el tiempo del temporizador . Cada capa de protocolo debe de tener su propio control de errores .
7. Direccionamiento : cada estación o dispositivo intermedio de almacenamiento debe tener una dirección única . A su vez , en cada terminal o sistema final puede haber varios agentes o programas que utilizan la red , por lo que cada uno de ellos tiene asociado un puerto .
Además de estas direcciones globales , cada estación o terminal de una subred debe de tener una dirección de subred ( generalmente en el nivel MAC ) .
Hay ocasiones en las que se usa un identificador de conexión ; esto se hace así cuando dos estaciones establecen un circuito virtual y a esa conexión la numeran ( con un identificador de conexión conocido por ambas ) . La utilización de este identificador simplifica los mecanismos de envío de datos ya que por ejemplo es más sencillo que el direccionamiento global .
Algunas veces se hace necesario que un emisor emita hacia varias entidades a la vez y para eso se les asigna un direccionamiento similar a todas .
8. Multiplexación : es posible multiplexar las conexiones de una capa hacia otra , es decir que de una única conexión de una capa superior , se pueden establecer varias conexiones en una capa inferior ( y al revés ) .
9. Servicios de transmisión : los servicios que puede prestar un protocolo son :
Prioridad : hay mensajes ( los de control ) que deben tener prioridad respecto a otros .
Grado de servicio : hay datos que deben de retardarse y otros acelerarse ( vídeo ) .
Seguridad .
Protocolo CSMA/CD.
Carrier Sense Mutiple Acces with Collision Detection. En este tipo de red cada estación se encuentra conectada bajo un mismo bus de datos, es decir las computadoras se conectan en la misma línea de comunicación (cablado), y por esta transmiten los paquetes de información hacia el servidor y/o los otros nodos. Cada estacion se encuentra monitoriando constantemente la línea de comunicación con el objeto de transmitir o resibir sus mensajes.
Estándares para redes de la IEEE.
- IEEE 802.1
Estándar que especifica la relación de los estándares IEEE y su interacción con los modeloOSI de la ISO  así como las cuestiones de interconectividad y administración de redes.
- IEEE 802.2
Control lógico de enlace (LLC), que ofrece servicios de "conexión lógica" a nivel de capa 2.
- IEEE 802.3
El comité de la IEEE 802. 3 definió un estándar el cual incluye el formato del paquete de datos para EtherNet, el cableado a usar y el máximo de distancia alcanzable para este tipo de redes. Describe una LAN usando una topologia de bus, con un metodo de acceso al medio llamado CSMA/CD y un cableado coaxial de banda base de 50 ohms capaz de manejar datos a una velocidad de 10 Mbs.
- IEEE 802.3 10Base5.
El estándar para bus IEEE 802.3 originalmente fue desarrollado para cable coaxial de banda base tipo Thick como muna norma para EtherNet, especificación a la cual se hace referencia como 10Base5 y describe un bus de red de compuesto por un cable coaxial de banda base de tipo thick el cual puede transmitir datos a una velocidad de 10Mbs. sobre un máximo de 500 mts.
- IEEE 802.3 10Base2.
Este estándar describe un bus de red el cual puede transmitir datosa una velocidad de 10 Mbs sobre un cable coaxial de banda base del tipo Thin en una distancia máxima de 200 mts.
- IEEE 802.3 STARLAN.
El comité IEEE 802 desarrllo este estándar para una red con protocolo CSMA el cual hace uso de una topología de estrella agrupada en la cual las estrellas se enlazan con otra. También se le conoce con la especificación 10Base5 y describe un red la cual puede transmitir datos a una velocidad de 1 Mbs hasta una distancia de 500 mts. usando un cableado de dos pares trenzados calibres 24.
- IEEE 802.3 10BaseT.
Este estándar describe un bus lógico 802.3 CSMA/CD sobre un cableado de 4 pares trenzados el cual esta configurado físicamente como una estrella distribuida, capas de transmitir datos a 10 Mbs en un máximo de distancia de 100 mts.
- IEEE 802.4
Define una red de topología usando el método de acceso al medio de Token Paassing.
- IEEE 802.5 Token Ring.
Este estándar define una red con topología de anillo la cual usa token (paquete de datos) para transmitir información a otra. En una estación de trabajo la cual envía un mensaje lo sitúa dentro de un token y lo direcciona especificamente a un destino, la estacion destino copia el mensaje y lo envía a un token de regreso a la estación origen la cual remueve el mensaje y pasa el token a la siguiente estación.
- IEEE 802.6
Red de área metropolitana (MAN), basada en la topologia popuesta por la University of Western Australia, conocida como DQDB (Distribuited Queue Dual Bus) DQDB utiliza un bus dual de fibra óptica como medio de transmisión. Ambos buses son unidireccionales, y en contra-sentido. Con esta tecnologia el ancho de banda es distribuido entre los usuarios , de acuerdo a la demanda que existe, en proceso conocido como "inserción de ranuras temporales". Puesto que puede llevar transmisión de datos síncronicos y asíncronicos, soporta aplicaciones de video, voz y datos. IEEE 802.6 con su DQDB, es la alternativa de la IEEE para ISDN.
Sus topologias
Bus: esta topología permite que todas las estaciones reciban la información que se transmite, una estación trasmite y todas las restantes escuchan.
Ventajas: La topologia Bus requiere de menor cantidad de cables para una mayor topologia; otra de las ventajas de esta topologia es que una falla en una estación en particular no incapacitara el resto de la red.
Desventajas: al existir un solo canal de comunicación entre las estaciones de la red, si falla el canal o una estación, las restantes quedan incomunicadas. Algunos fabricantes resuelven este problema poniendo un bus pararelo alternativo, para casos de fallos o usando algoritmos  para aislar las componentes defectuosas.
Existen dos mecanismos para la resolución de conflictos en la transmisión de datos:
CSMA/CD: son redes con escucha de colisiones. Todas las estaciones son consideradas igual, por ello compiten por el uso del canal, cada vez que una de ellas desea transmitir debe escuchar el canal, si alguien está transmitiendo espera a que termine, caso contrario transmite y se queda escuchando posibles colisiones, en este último espera un intervalo de tiempo y reintenta nuevamente.
Token Bus: Se usa un token (una trama de datos) que pasa de estación en estación en forma cíclica, es decir forma un anillo lógico. Cuando una estación tiene el token, tiene el derecho exclusivo del bus para transmitir o recibir datos por un tiempo determinado y luego pasa el token a otra estación, previamente designada. Las otras estaciones no pueden transmitir sin el token, sólo pueden escuchar y esperar su turno. Esto soluciona el problema de colisiones que tiene el mecanismo anterior.
Redes en Estrella
Es otra de las tres principales topologías. La red se une en un único punto, normalmente con control centralizado, como un concentrador de cableado.
Redes Bus en Estrella
Esta topología se utiliza con el fin de facilitar la administración de la red. En este caso la red es un bus que se cablea físicamente como una estrella por medio de concentradores.
Redes en Estrella Jerárquica
Esta estructura de cableado se utiliza en la mayor parte de las redes locales actuales, por medio de concentradores dispuestos en cascada para formar una red jerárquica.
Redes en Anillo
Es una de las tres principales topologías. Las estaciones están unidas una con otra formando un círculo por medio de un cable común. Las señales circulan en un solo sentido alrededor del círculo, regenerándose en cada nodo.
Ventajas: los cuellos de botellas son muy pocos frecuentes
Desventajas: al existir un solo canal de comunicación entre las estaciones de la red, si falla el canal o una estación, las restantes quedan incomunicadas. Algunos fabricantes resuelven este problema poniendo un canal alternativo para casos de fallos, si uno de los canales es viable la red está activa, o usando algoritmos para aislar las componentes defectuosas. Es muy compleja su administración, ya que hay que definir una estación para que controle el token.
Existe un mecanismo para la resolución de conflictos en la transmisión de datos:
Token Ring: La estación se conecta al anillo por una unidad de interfaz (RIU), cada RIU es responsable de controlar el paso de los datos por ella, así como de regenerar la transmisión y pasarla a la estación siguiente. Si la dirección de cabecera de una determinada transmisión indica que los datos son para una estación en concreto, la unidad de interfaz los copia y pasa la información a la estación de trabajo conectada a la misma.
Se usa en redes de área local con o sin prioridad, el token pasa de estación en estación en forma cíclica, inicialmente en estado desocupado. Cada estación cuando tiene el token (en este momento la estación controla el anillo), si quiere transmitir cambia su estado a ocupado, agregando los datos atrás y lo pone en la red, caso contrario pasa el token a la estación siguiente. Cuando el token pasa de nuevo por la estación que transmitió, saca los datos, lo pone en desocupado y lo regresa a la red.  

TIPOS DE REDES


Existen varios tipos de redes, los cuales se clasifican de acuerdo a su tamaño y distribución lógica.
Clasificación según su tamaño
Las redes PAN (red de administracion personal) son redes pequeñas, las cuales están conformadas por no más de 8 equipos, por ejemplo: café Internet
CAN: Campus Area Network, Red de Area Campus. Una CAN es una colección de LANs dispersadas geográficamente dentro de un campus (universitario, oficinas de gobierno maquilas o industrias) pertenecientes a una misma entidad en una área delimitada en kilómetros. Una CAN utiliza comúnmente tecnologías tales como FDDI y Gigabit Ethernet para conectividad a través de medios de comunicación tales como fibra óptica y espectro disperso.
Las redes LAN (Local Área Network, redes de área local) son las redes que todos conocemos, es decir, aquellas que se utilizan en nuestra empresa Son redes pequeñas, entendiendo como pequeñas las redes de una oficina, de un edificio. Debido a sus limitadas dimensiones, son redes muy rápidas en las cuales cada estación se puede comunicar con el resto. Están restringidas en tamaño, lo cual significa que el tiempo de transmisión, en el peor de los casos, se conoce. Además, simplifica la administración de la red.
Suelen emplear
tecnología de difusión mediante un cable sencillo (coaxial o UTP) al que están conectadas todas las máquinas. Operan a velocidades entre 10 y 100 Mbps.
Características preponderantes:
Los canales son propios de los usuarios o empresas
Los enlaces son líneas de alta velocidad.
Las estaciones están cercas entre sí.
Incrementan la eficiencia y productividad de los trabajos de oficinas al poder compartir información
Las tasas de error son menores que en las redes WAN
La arquitectura permite compartir recursos.
LANs muchas veces usa una tecnología de transmisión, dada por un simple cable, donde todas las computadoras están conectadas. Existen varias topologías posibles en la comunicación sobre LANs, las cuales se verán mas adelante.
Las redes WAN (Wide Área Network, redes de área extensa) son redes punto a punto que interconectan países y continentes. Al tener que recorrer una gran distancia sus velocidades son menores que en las LAN aunque son capaces de transportar una mayor cantidad de datos. El alcance es una gran área geográfica, como por ejemplo: una ciudad o un continente. Está formada por una vasta cantidad de computadoras interconectadas (llamadas hosts), por medio de subredes de comunicación o subredes pequeñas, con el fin de ejecutar aplicaciones, programas, etc.
Una red de área extensa WAN es un sistema de interconexión de equipos informáticos geográficamente dispersos, incluso en continentes distintos. Las líneas utilizadas para realizar esta interconexión suelen ser parte de las redes públicas de transmisión de datos.
Las redes LAN comúnmente, se conectan a redes WAN, con el objetivo de tener acceso a mejores servicios, como por ejemplo a Internet. Las redes WAN son mucho más complejas, porque deben enrutar correctamente toda la información proveniente de las redes conectadas a ésta.
Una subred está formada por dos componentes:
Líneas de transmisión: quienes son las encargadas de llevar los bits entre los hosts.
Elementos interruptores (routers): son computadoras especializadas usadas por dos o más líneas de transmisión. Para que un paquete llegue de un router a otro, generalmente debe pasar por routers intermedios, cada uno de estos lo recibe por una línea de entrada, lo almacena y cuando una línea de salida está libre, lo retransmite.
INTERNET WORKS: Es una colección de redes interconectadas, cada una de ellas puede estar desarrollada sobre diferentes software y hardware. Una forma típica de Internet Works es un grupo de redes LANs conectadas con WANs Si una subred le sumamos los host obtenemos una red.
El conjunto de redes mundiales es lo que conocemos como Internet.
Las redes MAN (Metropolitana Área Network, redes de área metropolitana) , comprenden una ubicación geográfica determinada "ciudad, municipio", y su distancia de cobertura es mayor de 4 Kmts. Son redes con dos buses unidireccionales, cada uno de ellos es independiente del otro en cuanto a la transferencia de datos. Es básicamente una gran versión de LAN y usa una tecnología similar. Puede cubrir un grupo de oficinas de una misma corporación o ciudad, esta puede ser pública o privada. El mecanismo para la resolución de conflictos en la transmisión de datos que usan las MANs, es DQDB
DQDB consiste en dos buses unidireccionales, en los cuales todas las estaciones están conectadas, cada bus tiene una cabecera y un fin. Cuando una computadora quiere transmitir a otra, si esta está ubicada a la izquierda usa el bus de arriba, caso contrario el de abajo.
Redes Punto a Punto. En una red punto a punto cada computadora puede actuar como cliente y como servidor Las redes punto a punto hacen que el compartir datos y periféricos sea fácil para un pequeño grupo de gente. En una ambiente punto a punto, la seguridad es difícil, porque la administración no está centralizada.

Redes Basadas en servidor. Las redes basadas en servidor son mejores para compartir gran cantidad de recursos y datos. Un administrador supervisa la operación de la red, y vela que la seguridad sea mantenida. Este tipo de red puede tener uno o mas servidores dependiendo del volumen de tráfico, número de periféricos etc. Por ejemplo, puede haber un servidor de impresión, un servidor de comunicaciones, y un servidor de base de datos, todos en una misma red.
Clasificación según su distribución lógica

Todos los ordenadores tienen un lado cliente y otro servidor: una máquina puede ser servidora de un determinado servicio pero cliente de otro servicio.

Servidor. Máquina que ofrece información o servicios al resto de los puestos de la red. La clase de información o servicios que ofrezca determina el tipo de servidor que es: servidor de impresión, de archivos, de páginas web, de correo, de usuarios, de IRC (charlas en Internet), de base de datos...

Cliente. Máquina que accede a la información de los servidores o utiliza sus servicios. Ejemplos: Cada vez que estamos viendo una página web (almacenada en un servidor remoto) nos estamos comportando como clientes. También seremos clientes si utilizamos el servicio de impresión de un ordenador remoto en la red (el servidor que tiene la impresora conectada).
Todas estas redes deben de cumplir con las siguientes características:

Confiabilidad "transportar datos".Transportabilidad "dispositivos”. Gran procesamiento de información. Y de acuerdo estas, tienen diferentes usos, dependiendo de la necesidad del usuario, como son:

Compañías - centralizar datos.
Compartir recursos "periféricos, archivos, etc".
Confiabilidad "transporte de datos".
aumentar la disponibilidad de la información.




sábado, 21 de abril de 2012



La historia de Internet

Orígenes de Internet

La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networkin (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Liklider, del Massachusetts instituto de tecnología, en Agosto de 1962, en los cuales Liklider discute sobre su concepto galáctico de  Network (Red Galáctica) así empieza todo.

El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Iván Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberts de la importancia del concepto de trabajo en red. 

En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.

Para explorar este terreno, en 1965, Roberts conectó un ordenador TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada. 

A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberts sobre su trabajo en el NPL así como sobre el de Paul Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.

Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps (5). 

En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface (IMPs, procesadores de mensajes de interfaz).

El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heard, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en Imp. con Bob Kahn tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberts trabajando con Howard Frank y su equipo en la Network Analysis Corporation, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Angeles (6). 

A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Center (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host .

El proyecto de Doug Engelbart denominado Augmentation of Human Intelect (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Stanford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Información Center , liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs ( Request For Comments ).

Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culler y Burton Fried en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays" ( N. del T. : mecanismos que incorporan buffers de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Robert Taylor y Ivan Sutherland en Utah investigando métodos de representación en 3-D a través de la red.

Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy. 

Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red.

En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de en la International Computer Communication Conference . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. 
En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.

En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona. 

Conceptos iniciales sobre el internet

nos abla sobre como fue el inicio de este proyecto sobre el internet

La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.

Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del meta nivel de la arquitectura de Internetworking (trabajo entre redes). Hasta ese momento, había un sólo método para "federar" redes.

Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.

Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo). 

En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.

No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.

Entonces, el programa fue llamado internet. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP. 

Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s. 

Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones. 

Ideas a prueba

Fueron las primeras ideas de  prueba para dar origen al  internet fue un periodo muy largo

Este fue el principio de un largo periodo de experimentación y desarrollo para evolucionar y madurar el concepto y tecnología de Internet. Partiendo de las tres primeras redes ARPANET, radio y satélite y de sus comunidades de investigación iniciales, el entorno experimental creció hasta incorporar esencialmente cualquier forma de red y una amplia comunidad de investigación y desarrollo [REK78]. Cada expansión afrontó nuevos desafíos. 

Las primeras implementaciones de TCP se hicieron para grandes sistemas en tiempo compartido como Tenex y TOPS 20. Cuando aparecieron los ordenadores de sobremesa ( desktop ), TCP era demasiado grande y complejo como para funcionar en ordenadores personales. David Clark y su equipo de investigación del MIT empezaron a buscar la implementación de TCP más sencilla y compacta posible.

La desarrollaron, primero para el Alto de Xerox (la primera estación de trabajo personal desarrollada en el PARC de Xerox), y luego para el PC de IBM. Esta implementación operaba con otras de TCP, pero estaba adaptada al conjunto de aplicaciones y a las prestaciones de un ordenador personal, y demostraba que las estaciones de trabajo, al igual que los grandes sistemas, podían ser parte de Internet.

En los años 80, el desarrollo de LAN, PC y estaciones de trabajo permitió que la naciente Internet floreciera. La tecnología Ethernet, desarrollada por Bob Metcalfe en el PARC de Xerox en 1973, es la dominante en Internet, y los PCs y las estaciones de trabajo los modelos de ordenador dominantes. El cambio que supone pasar de unas pocas redes con un modesto número de hosts (el modelo original de ARPANET)) a tener muchas redes dio lugar a nuevos conceptos y a cambios en la tecnología.

En primer lugar, hubo que definir tres clases de redes (A, B y C) para acomodar todas las existentes. La clase A representa a las redes grandes, a escala nacional (pocas redes con muchos ordenadores); la clase B representa redes regionales; por último, la clase C representa redes de área local (muchas redes con relativamente pocos ordenadores). 

Como resultado del crecimiento de Internet, se produjo un cambio de gran importancia para la red y su gestión. Para facilitar el uso de Internet por sus usuarios se asignaron nombres a los host s de forma que resultara innecesario recordar sus direcciones numéricas. Originalmente había un número muy limitado de máquinas, por lo que bastaba con una simple tabla con todos los ordenadores y sus direcciones asociadas. 

El cambio hacia un gran número de redes gestionadas independientemente (por ejemplo, las LAN) significó que no resultara ya fiable tener una pequeña tabla con todos los host s. Esto llevó a la invención del DNS ( Domain Name System , sistema de nombres de dominio) por Paul Mockapetris de USC/ISI. El DNS permitía un mecanismo escalable y distribuido para resolver jerárquicamente los nombres de los host s (por ejemplo, www.acm.org o www.ati.es ) en direcciones de Internet. 

El incremento del tamaño de Internet resultó también un desafío para los routers . Originalmente había un sencillo algoritmo de enrutamiento que estaba implementado uniformemente en todos los routers de Internet. A medida que el número de redes en Internet se multiplicaba, el diseño inicial no era ya capaz de expandirse, por lo que fue sustituido por un modelo jerárquico de enrutamiento con un protocolo IGP ( Interior Gateway Protocol , protocolo interno de pasarela) usado dentro de cada región de Internet y un protocolo EGP ( Exterior Gateway Protocol , protocolo externo de pasarela) usado para mantener unidas las regiones.

El diseño permitía que distintas regiones utilizaran IGP distintos, por lo que los requisitos de coste, velocidad de configuración, robustez y escalabilidad, podían ajustarse a cada situación. Los algoritmos de enrutamiento no eran los únicos en poner en dificultades la capacidad de los routers , también lo hacía el tamaño de la tablas de direccionamiento. Se presentaron nuevas aproximaciones a la agregación de direcciones (en particular CIDR, Classless Interdomain Routing , enrutamiento entre dominios sin clase) para controlar el tamaño de las tablas de enrutamiento. 

A medida que evolucionaba Internet, la propagación de los cambios en el software, especialmente el de los host s, se fue convirtiendo en uno de sus mayores desafíos. DARPA financió a la Universidad de California en Berkeley en una investigación sobre modificaciones en el sistema operativo Unix, incorporando el TCP/IP desarrollado en BBN. Aunque posteriormente Berkeley modificó esta implementación del BBN para que operara de forma más eficiente con el sistema y el kernel de Unix, la incorporación de TCP/IP en el sistema Unix BSD demostró ser un elemento crítico en la difusión de los protocolos entre la comunidad investigadora.

BSD empezó a ser utilizado en sus operaciones diarias por buena parte de la comunidad investigadora en temas relacionados con informática. Visto en perspectiva, la estrategia de incorporar los protocolos de Internet en un sistema operativo utilizado por la comunidad investigadora fue uno de los elementos clave en la exitosa y amplia aceptación de Internet. 

Uno de los desafíos más interesantes fue la transición del protocolo para host s de ARPANET desde NCP a TCP/IP el 1 de enero de 1983. Se trataba de una ocasión muy importante que exigía que todos los host s se convirtieran simultáneamente o que permanecieran comunicados mediante mecanismos desarrollados para la ocasión.

La transición fue cuidadosamente planificada dentro de la comunidad con varios años de antelación a la fecha, pero fue sorprendentemente sobre ruedas (a pesar de dar la lugar a la distribución de insignias con la inscripción "Yo sobreviví a la transición a TCP/IP"). 

TCP/IP había sido adoptado como un estándar por el ejército norteamericano tres años antes, en 1980. Esto permitió al ejército empezar a compartir la tecnología DARPA basada en Internet y llevó a la separación final entre las comunidades militares y no militares. En 1983 ARPANET estaba siendo usada por un número significativo de organizaciones operativas y de investigación y desarrollo en el área de la defensa. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación. 

Así, en 1985, Internet estaba firmemente establecida como una tecnología que ayudaba a una amplia comunidad de investigadores y desarrolladores, y empezaba a ser empleada por otros grupos en sus comunicaciones diarias entre ordenadores. El correo electrónico se empleaba ampliamente entre varias comunidades, a menudo entre distintos sistemas. La interconexión entre los diversos sistemas de correo demostraba la utilidad de las comunicaciones electrónicas entre personas. 

La transición hacia una infraestructura global

Fue lanzado Asia  todo el mundo

Al mismo tiempo que la tecnología Internet estaba siendo validada experimentalmente y usada ampliamente entre un grupo de investigadores de informática se estaban desarrollando otras redes y tecnologías. La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.

El Departamento norteamericano de Energía (DoE, Deparment of Energy ) estableció MFENet para sus investigadores que trabajaban sobre energía de fusión, mientras que los físicos de altas energías fueron los encargados de construir HEPNet. Los físicos de la NASA continuaron con SPAN y Rick Adrion, David Farber y Larry Landweber fundaron CSNET para la comunidad informática académica y de la industria con la financiación inicial de la NFS ( National Science Foundation , Fundación Nacional de la Ciencia) de Estados Unidos.

La libre diseminación del sistema operativo Unix de ATT dio lugar a USENET, basada en los protocolos de comunicación UUCP de Unix, y en 1981 Greydon Freeman e Ira Fuchs diseñaron BITNET, que unía los ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como "postales". Con la excepción de BITNET y USENET, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado.

Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. Además, estaban empezando a proponerse tecnologías alternativas en el sector comercial, como XNS de Xerox, DECNet, y la SNA de IBM (8).

Sólo restaba que los programas ingleses JANET (1984) y norteamericano NSFNET (1985) anunciaran explícitamente que su propósito era servir a toda la comunidad de la enseñanza superior sin importar su disciplina. De hecho, una de las condiciones para que una universidad norteamericana recibiera financiación de la NSF para conectarse a Internet era que "la conexión estuviera disponible para todos los usuarios cualificados del campus". 

En 1985 Dennins Jenning acudió desde Irlanda para pasar un año en NFS dirigiendo el programa NSFNET. Trabajó con el resto de la comunidad para ayudar a la NSF a tomar una decisión crítica: si TCP/IP debería ser obligatorio en el programa NSFNET. Cuando Steve Wolff llegó al programa NFSNET en 1986 reconoció la necesidad de una infraestructura de red amplia que pudiera ser de ayuda a la comunidad investigadora y a la académica en general, junto a la necesidad de desarrollar una estrategia para establecer esta infraestructura sobre bases independientes de la financiación pública directa. Se adoptaron varias políticas y estrategias para alcanzar estos fines. 

La NSF optó también por mantener la infraestructura organizativa de Internet existente (DARPA) dispuesta jerárquicamente bajo el IAB ( Internet Activities Board , Comité de Actividades de Internet). La declaración pública de esta decisión firmada por todos sus autores (por los grupos de Arquitectura e Ingeniería de la IAB, y por el NTAG de la NSF) apareció como la RFC 985 ("Requisitos para pasarelas de Internet") que formalmente aseguraba la interoperatividad entre las partes de Internet dependientes de DARPA y de NSF. 

El backbone había hecho la transición desde una red construida con routers de la comunidad investigadora (los routers Fuzzball de David Mills) a equipos comerciales. En su vida de ocho años y medio, el backbone había crecido desde seis nodos con enlaces de 56Kb a 21 nodos con enlaces múltiples de 45Mb.Había visto crecer Internet hasta alcanzar más de 50.000 redes en los cinco continentes y en el espacio exterior, con aproximadamente 29.000 redes en los Estados Unidos. 



Internet es el futuro de la red de redes y está formado actualmente por un consorcio dirigido por 206 universidades que junto a la industria de comunicaciones y el gobierno están desarrollando nuevas técnicas de conexión que acelerarán la capacidad de transferencia entre servidores.

Sus objetivos están enfocados a la educación y la investigación académica. Además buscan aprovechar aplicaciones de audio y video que demandan más capacidad de transferencia de ancho de banda.

Así si fue como surgió el internes gracias a ello ahora el internet se interactúa con nosotros ya que ai encontramos tanto tareas como redes sociales y muchas cosas más  que son útiles para el ser humano