lunes, 8 de marzo de 2010

sábado, 6 de marzo de 2010

EL LENGUAJE HTML


La primera descripción de HTML disponible públicamente fue un documento llamado HTML Tags publicado por primera vez en Internet por en 1991. Describe 22 elementos comprendiendo el diseño inicial y relativamente simple de HTML. Trece de estos elementos todavía existen en HTML.
Bernés- consideraba a HTML una ampliación de SGML, pero no fue formalmente reconocida como tal hasta la publicación de mediados de 1993, por la IETF, de una primera proposición para una especificación de HTML: el boceto Hypertext Markup Lenguaje de Berners-Lee y Dan Connolly, el cual incluía una Definición de Tipo de Documento SGML para definir la gramática. El boceto expiró luego de seis meses, pero fue notable por su reconocimiento de la etiqueta propia del navegador Mosaic usada para insertar imágenes sin cambio de línea, reflejando la filosofía del IETF de basar estándares en prototipos con éxito. Similarmente, el boceto competidor de Dave Raggett HTML+ (Hypertext Markup Format) (Formato de marcaje de hipertexto), de 1993 tardío, sugería, estandarizar características ya implementadas tales como tablas.
Marcado HTML
HTML consta de varios componentes vitales, incluyendo elementos y sus atributos, tipos de data, y la declaración de tipo de documento.
Elementos
Los elementos son la estructura básica de HTML. Los elementos tienen dos propiedades básicas: atributos y contenido. Cada atributo y contenido tiene ciertas restricciones para que se considere válido al documento HTML. Un elemento generalmente tiene una etiqueta de inicio y una etiqueta de cierre . Los atributos del elemento están contenidos en la etiqueta de inicio y el contenido está ubicado entre las dos etiquetas . Algunos elementos, tales como
, no tienen contenido ni llevan una etiqueta de cierre. Debajo se listan varios tipos de elementos de marcado usados en HTML.


Estructura general de una línea de código en el lenguaje de etiquetas HTML.
El marcado estructural describe el propósito del texto. Por ejemplo, establece a "Golf" como un encabezamiento de segundo nivel, el cual se mostraría en un navegador de una manera similar al título "Marcado HTML" al principio de esta sección. El marcado estructural no define cómo se verá el elemento, pero la mayoría de los navegadores web han estandarizado el formato de los elementos. Un formato específico puede ser aplicado al texto por medio de hojas de estilo en cascada.
El marcado presentacional describe la apariencia del texto, sin importar su función. . En el caso de negrita e itálica, existen elementos que se ven de la misma manera pero tienen una naturaleza más semántica: enfásis fuerte y énfasis. Es fácil ver cómo un lector de pantalla debería interpretar estos dos elementos. Sin embargo, son equivalentes a sus correspondientes elementos presentacionales: un lector de pantalla no debería decir más fuerte el nombre de un libro, aunque éste esté en itálicas en una pantalla. La mayoría del marcado presentacional ha sido desechada con HTML 4.0, en favor de Hojas de estilo en cascada.
El marcado hipertextual se utiliza para enlazar partes del documento con otros documentos o con otras partes del mismo documento. Para crear un enlace es necesario utilizar la etiqueta de ancla
junto con el atributo href, que establecerá la dirección URL a la que apunta el enlace. Por ejemplo, un enlace a la Wikipedia . También se pueden crear enlaces sobre otros objetos, tales como imágenes .
Atributos
La mayoría de los atributos de un elemento son pares nombre-valor, separados por un signo de igual "=" y escritos en la etiqueta de comienzo de un elemento, después del nombre de éste. El valor puede estar rodeado por comillas dobles o simples, aunque ciertos tipos de valores pueden estar sin comillas en HTML. De todas maneras, dejar los valores sin comillas es considerado poco seguro. En contraste con los pares nombre-elemento, hay algunos atributos que afectan al elemento simplemente por su presencia.
Códigos HTML básicos
•: define el inicio del documento HTML, le indica al navegador que lo que viene a continuación debe ser interpretado como código HTML. Esto es así de facto, ya que en teoría lo que define el tipo de documento es el DOCTYPE, significando la palabra justo tras DOCTYPE el tag de raíz, por ejemplo:


Nociones básicas de HTML
El lenguaje HTML puede ser creado y editado con cualquier editor de textos básico, como puede ser Gedit en Linux, el Bloc de Notas de Windows, o cualquier otro editor que admita texto sin formato como GNU Emacs, Microsoft Wordpad, TextPad, Vim, Notepad++, entre otros.
Existen además, otros editores para la realización de sitios Web con características WYSIWYG .Estos editores permiten ver el resultado de lo que se está editando en tiempo real, a medida que se va desarrollando el documento. Ahora bien, esto no significa una manera distinta de realizar sitios web, sino que una forma un tanto más simple ya que estos programas, además de tener la opción de trabajar con la vista preliminar, tiene su propia sección HTML la cual va generando todo el código a medida que se va trabajando. Algunos ejemplos de editores WYSIWIG son Macromedia Dreamweaver, o Microsoft FrontPage.
Combinar estos dos métodos resulta muy interesante, ya que de alguna manera se ayudan entre sí. Por ejemplo; si se edita todo en HTML y de pronto se olvida algún código o etiqueta, simplemente me dirijo al editor visual o WYSIWYG y se continúa ahí la edición, o viceversa, ya que hay casos en que sale más rápido y fácil escribir directamente el código de alguna característica que queramos adherirle al sitio, que buscar la opción en el programa mismo.
Existe otro tipo de editores HTML llamados WYSIWYM que dan más importancia al contenido y al significado que a la apariencia visual. Entre los objetivos que tienen estos editores es la separación del contenido y la presentación, fundamental en el diseño Web.
HTML utiliza etiquetas o marcas, que consisten en breves instrucciones de comienzo y final, mediante las cuales se determinan la forma en la que debe aparecer en su navegador el texto, así como también las imágenes y los demás elementos, en la pantalla del ordenador.
Toda etiqueta se identifica porque está encerrada entre los signos menor que y mayor que y algunas tienen atributos que pueden tomar algún valor. En general las etiquetas se aplicarán de dos formas especiales:
•Se abren y se cierran, como por ejemplo: negrita que se vería en su navegador web como negrita.















Elementos para realizar una conexion a internet


1.-Linea telefonica


2.-Ordenador=es una pc=computadora personal.


3.-Un modem.


4.-Organizacion del internet.


5.-sofware.



La Red Telefónica Conmputada (RTC) —también llamada Red Telefónica Básica (RTB)— es la red original y habitual (analógica). Por ella circula habitualmente las vibraciones de la voz, las cuales son traducidas en impulsos eléctricos que se transmiten a través de dos hilos de cobre. A este tipo de comunicación se denomina analógica. La señal del ordenador, que es digital, se convierte en analógica a través del módem y se transmite por la línea telefónica. Es la red de menor velocidad y calidad. La conexión se establece mediante una llamada telefónica al número que le asigne su proveedor de internet. Este proceso tiene una duración mínima de 20 segundos. Puesto que este tiempo es largo, se recomienda que la programación de desconexión automática no sea inferior a 2 minutos. Su coste es de una llamada local, aunque también hay números especiales con tarifa propia.Para acceder a la Red sólo necesitaremos una línea de teléfono y un módem, ya sea interno o externo. La conexión en la actualidad tiene una velocidad de 56 kbits por segundo y se realiza directamente desde un PC o en los centros escolares a través de router o proxy.

RDSI
La Red Digital de Servicios Integrados (RDSI) envía la información codificada digitalmente, por ello necesita un adaptador de red, módem o tarjeta RDSI que adecúa la velocidad entre el PC y la línea. Para disponer de RDSI hay que hablar con un operador de telecomunicaciones para que instale esta conexión especial que, lógicamente, es más cara pero que permite una velocidad de conexión digital a 64 kbit/s en ambos sentidos.
El aspecto de una tarjeta interna RDSI es muy parecido a un módem interno para RTC.
·La RDSI integra multitud de servicios, tanto transmisión de voz, como de datos, en un único acceso de usuario que permite la comunicación digital entre los terminales conectados a ella (teléfono, fax, ordenador, etc.)
·Sus principales características son:
oConectividad digital punto a punto.
oConmutación de circuitos a 64 kbit/s.
oUso de vías separadas para la señalización y para la transferencia de información (canal adicional a los canales de datos).
·La conexión RDSI divide la línea telefónica en tres canales: dos B o portadores, por los que circula la información a la velocidad de 64 kbps, y un canal D, de 16 kbps, que sirve para gestionar la conexión. Se pueden utilizar los dos canales B de manera independiente (es posible hablar por teléfono por uno de ellos y navegar por Internet simultáneamente), o bien utilizarlos de manera conjunta, lo que proporciona una velocidad de transmisión de 128 kbps. Así pues, una conexión que utilice los dos canales (p.e. videoconferencia) supondrá la realización de dos llamadas telefónicas.

ADSL
·ADSL (Asymmetric Digital Subscriber Line o Línea de Abonado Digital Asimétrica) es una tecnología que, basada en el par de cobre de la línea telefónica normal, la convierte en una línea de alta velocidad. Permite transmitir simultáneamente voz y datos a través de la misma línea telefónica.
En el servicio ADSL el envío y recepción de los datos se establece desde el ordenador del usuario a través de un módem ADSL. Estos datos pasan por un filtro (splitter), que permite la utilización simultánea del servicio telefónico básico (RTC) y del servicio ADSL. Es decir, el usuario puede hablar por teléfono a la vez que está navegando por Internet, para ello se establecen tres canales independientes sobre la línea telefónica estándar:

Dos canales de alta velocidad (uno de recepción de datos y otro de envío de datos).
Un tercer canal para la comunicación normal de voz (servicio telefónico básico).
Los dos canales de datos son asimétricos, es decir, no tienen la misma velocidad de transmisión de datos. El canal de recepción de datos tiene mayor velocidad que el canal de envío de datos.
Esta asimetría, característica de ADSL, permite alcanzar mayores velocidades en el sentido red -> usuario, lo cual se adapta perfectamente a los servicios de acceso a información en los que normalmente, el volumen de información recibido es mucho mayor que el enviado.
ADSL permite velocidades de hasta 8 Mbps en el sentido red->usuario y de hasta 1 Mbps en el sentido usuario->red. Actualmente, en España estas velocidades son de hasta 2 Mbps en el sentido red->usuario y de 300 Kbps en el sentido usuario->red.
La velocidad de transmisión también depende de la distancia del módem a la centralita, de forma que si la distancia es mayor de 3 Kilómetros se pierde parte de la calidad y la tasa de transferencia empieza a bajar.
Un esquema de conexión ADSL podría ser:
Si quiere información sobre la cobertura y despliegue de medios ADSL en la red de Telefónica de España, puede encontrarla en la siguiente direccion.
Cable
·Normalmente se utiliza el cable coaxial que también es capaz de conseguir tasas elevadas de transmisión pero utilizando una tecnología completamente distinta. En lugar de establecer una conexión directa, o punto a punto, con el proveedor de acceso, se utilizan conexiones multipunto, en las cuales muchos usuarios comparten el mismo cable.
·Las principales consecuencias del uso de esta tecnología son:
oCada nodo (punto de conexión a la Red) puede dar servicio a entre 500 y 2000 usuarios.
oPara conseguir una calidad óptima de conexión la distancia entre el nodo y el usuario no puede superar los 500 metros.
oNo se pueden utilizar los cables de las líneas telefónicas tradicionales para realizar la conexión, siendo necesario que el cable coaxial alcance físicamente el lugar desde el que se conecta el usuario.
oLa conexión es compartida, por lo que a medida que aumenta el número de usuarios conectados al mismo nodo, se reduce la tasa de transferencia de cada uno de ellos.
·Esta tecnología puede proporcionar una tasa de 30 Mbps de bajada como máximo, pero los módems normalmente están fabricados con una capacidad de bajada de 10 Mbps y 2 Mbps de subida. De cualquier forma, los operadores de cable normalmente limitan las tasas máximas para cada usuario a niveles muy inferiores a estos, sobre todo en la dirección de subida.



Vía satélite
·En los últimos años, cada vez más compañías están empleando este sistema de transmisión para distribuir contenidos de Internet o transferir ficheros entre distintas sucursales. De esta manera, se puede aliviar la congestión existente en las redes terrestres tradicionales.
·El sistema de conexión que generalmente se emplea es un híbrido de satélite y teléfono. Hay que tener instalada una antena parabólica digital, un acceso telefónico a Internet (utilizando un módem RTC, RDSI, ADSL o por cable), una tarjeta receptora para PC, un software específico y una suscripción a un proveedor de satélite.
·El cibernauta envía sus mensajes de correo electrónico y la petición de las páginas Web, que consume muy poco ancho de banda, mediante un módem tradicional, pero la recepción se produce por una parabólica, ya sean programas informáticos, vídeos o cualquier otro material que ocupe muchos megas. La velocidad de descarga a través del satélite puede situarse en casos óptimos en torno a 400 Kbps.
Redes Inalámbricas
Las redes inalámbricas o wireless son una tecnología normalizada por el IEEE que permite montar redes locales sin emplear ningún tipo de cableado, utilizando infrarrojos u ondas de radio a frecuencias desnormalizadas (de libre utilización).
Están compuestas por dos elementos:
- Punto de acceso (AP) o “transceiver”: es la estación base que crea un área de cobertura donde los usuarios se pueden conectar. El AP cuenta con una o dos antenas y con una o varias puertas Internet.- Dispositivos clientes: son elementos que cuentan con tarjeta de red inalámbrica. Estos proporcionan un interfaz entre el sistema operativo de red del cliente y las ondas, a través de una antena.
El usuario puede configurar el canal (se suelen utilizar las bandas de 2,4 Ghz y 5Ghz) con el que se comunica con el punto de acceso por lo que podría cambiarlo en caso de interferencias. En España se nos impide transmitir en la totalidad de la banda 2,4 Ghz debido a que parte de esta banda está destinada a usos militares.
La velocidad con el punto de acceso disminuye con la distancia.
Los sistemas inalámbricos de banda ancha se conocen cómo BWS (Broadband Wireless Sistema) y uno de los más atractivos, son los sistemas LMDS.
LMDS
·El LMDS (Local Multipoint Distribución Sistema) es un sistema de comunicación de punto a multipunto que utiliza ondas radioeléctricas a altas frecuencias, en torno a 28 ó 40 GHz. Las señales que se transmiten pueden consistir en voz, datos, Internet y vídeo.
·Este sistema utiliza como medio de transmisión el aire para enlazar la red troncal de telecomunicaciones con el abonado. En este sentido, se configura un nuevo bucle de abonado, con gran ancho de banda, distinto al tradicional par de hilos de cobre que conecta cada Terminal doméstico con la centralita más próxima.
·Las bandas de frecuencias utilizadas ocupan un rango en torno a 2 Ghz, para las cuales la atenuación por agentes atmosféricos es mínima. Debido a las altas frecuencias y al amplio margen de operación, es posible conseguir un gran ancho de banda de comunicaciones, con velocidades de acceso que pueden alcanzar los 8 Mbps. El sistema opera en el espacio local mediante las estaciones base y las antenas receptoras usuarias, de forma by direccional. Se necesita que haya visibilidad directa desde la estación base hasta el abonado, por lo cual pueden utilizarse repetidores si el usuario está ubicado en zonas sin señal.
.En España, el servicio se ofrece en las frecuencias de 3,5 ó 26 GHz. El sistema de 26 GHz ofrece mayor capacidad de transmisión, con un alcance de hasta 5 Km. En cambio, el sistema de 3,5 GHz puede conseguir un alcance mayor, de hasta 10 Km., aunque tiene menor capacidad, y puede ofrecer velocidades de hasta 2 Mbps. Este segundo sistema es, por tanto, más económico que el primero.
·El LMDS ofrece las mismas posibilidades en cuanto a servicios, velocidad y calidad que el cable de fibra óptica, coaxial o el satélite. La ventaja principal respecto al cable consiste en que puede ofrecer servicio en zonas donde el cable nunca llegaría de forma rentable. Respecto al satélite, ofrece la ventaja de solucionar el problema de la gran potencia de emisión que se dispersa innecesariamente en cubrir amplias extensiones geográficas.





viernes, 5 de marzo de 2010

historia del internet

La historia del Internet
Internet surgió de un proyecto desarrollado en Estados Unidos para apoyar a sus fuerzas militares. Luego de su creación fue utilizado por el gobierno, universidades y otros centros académicos.
Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica.
Orígenes de Internet
La primera descripción documentada acerca de las interacciones sociales que podrían ser propiciadas a través del networking (trabajo en red) está contenida en una serie de memorándums escritos por J.C.R. Licklider, del Massachussets Instituye of Tecnología, en Agosto de 1962, en los cuales Licklider discute sobre su concepto de Galáctica Network (Red Galáctica).
El concibió una red interconectada globalmente a través de la que cada uno pudiera acceder desde cualquier lugar a datos y programas. En esencia, el concepto era muy parecido a la Internet actual. Licklider fue el principal responsable del programa de investigación en ordenadores de la DARPA desde Octubre de 1962. Mientras trabajó en DARPA convenció a sus sucesores Iván Sutherland, Bob Taylor, y el investigador del MIT Lawrence G. Roberto de la importancia del concepto de trabajo en red.
En Julio de 1961 Leonardo Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Roberto de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí.
Para explorar este terreno, en 1965, Roberto conectó un ordenador TX2 en Massachussets con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de ordenadores de área amplia jamás construida. El resultado del experimento fue la constatación de que los ordenadores de tiempo compartido podían trabajar juntos correctamente, ejecutando programas y recuperando datos a discreción en la máquina remota, pero que el sistema telefónico de conmutación de circuitos era totalmente inadecuado para esta labor. La convicción de Kleinrock acerca de la necesidad de la conmutación de paquetes quedó pues confirmada.
A finales de 1966 Roberto se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967. En la conferencia en la que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. Scantlebury le habló a Roberto sobre su trabajo en el NPL así como sobre el de Paúl Baran y otros en RAND. El grupo RAND había escrito un documento sobre redes de conmutación de paquetes para comunicación vocal segura en el ámbito militar, en 1964.
Ocurrió que los trabajos del MIT (1961-67), RAND (1962-65) y NPL (1964-67) habían discurrido en paralelo sin que los investigadores hubieran conocido el trabajo de los demás. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANET fue aumentada desde 2,4 Kbps hasta 50 Kbps.
En Agosto de 1968, después de que Roberto y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados, procesadores de mensajes de interfaz..
El RFQ fue ganado en Diciembre de 1968 por un grupo encabezado por Frank Heart, de Bolt Beranek y Newman (BBN). Así como el equipo de BBN trabajó en IMPs con Bob Khan tomando un papel principal en el diseño de la arquitectura de la ARPANET global, la topología de red y el aspecto económico fueron diseñados y optimizados por Roberto trabajando con Howard Frank y su equipo en la Network Análisis Corporación, y el sistema de medida de la red fue preparado por el equipo de Kleinrock de la Universidad de California, en Los Ángeles.
A causa del temprano desarrollo de la teoría de conmutación de paquetes de Kleinrock y su énfasis en el análisis, diseño y medición, su Network Measurement Centrer (Centro de Medidas de Red) en la UCLA fue seleccionado para ser el primer nodo de ARPANET. Todo ello ocurrió en Septiembre de 1969, cuando BBN instaló el primer IMP en la UCLA y quedó conectado el primer ordenador host.
El proyecto de Doug Engelbart denominado Argumentación of Human Intelecto (Aumento del Intelecto Humano) que incluía NLS, un primitivo sistema hipertexto en el Instituto de Investigación de Standford (SRI) proporcionó un segundo nodo. El SRI patrocinó el Network Información Center, liderado por Elizabeth (Jake) Feinler, que desarrolló funciones tales como mantener tablas de nombres de host para la traducción de direcciones así como un directorio de RFCs (Request For Comento).
Un mes más tarde, cuando el SRI fue conectado a ARPANET, el primer mensaje de host a host fue enviado desde el laboratorio de Leinrock al SRI. Se añadieron dos nodos en la Universidad de California, Santa Bárbara, y en la Universidad de Utah. Estos dos últimos nodos incorporaron proyectos de visualización de aplicaciones, con Glen Culles y Burlón Freíd en la UCSB investigando métodos para mostrar funciones matemáticas mediante el uso de "storage displays”: mecanismos que incorporan buffer de monitorización distribuidos en red para facilitar el refresco de la visualización) para tratar con el problema de refrescar sobre la red, y Roberto Taylor y Iván Sutherland en Utah investigando métodos de representación en 3-D a través de la red.
Así, a finales de 1969, cuatro ordenadores host fueron conectados conjuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy.
Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red. En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo host a host inicial para ARPANET, llamado Network Control Protocol (NCP, protocolo de control de red). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En Octubre de 1972, Khan organizó una gran y muy exitosa demostración de ARPANET en la Internacional Competer Comunicación Conferencie . Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico. En Marzo, Ray Tomlinson, de BBN, escribió el software básico de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberto expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web , es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
Conceptos iniciales sobre Internetting
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red. Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del meta nivel de la arquitectura de Internetworking Hasta ese momento, había un sólo método para "federar" redes.
Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncronamente a lo largo de una porción de circuito que unía un par de sedes finales. Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente.
Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio.
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red.
No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido. La idea de arquitectura de red abierta fue introducida primeramente por Khan un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado.
Entonces, el programa fue llamado Internetting. La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Khan pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccional redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto. El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los host s.
Así, Khan decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "Transmisión-Control ProtocoloInternet Protocol" (TCP IP, protocolo de control de transmisión protocolo de Internet). Así como el NCP tendía a actuar como un drive de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.