Taller Internet.

1. ¿QUES ARPANET Y QUIENES SON SUS PREDECESORES?
¿Cómo de antiguo crees que es Internet? Para muchos de nosotros, nuestra
experiencia con Internet se remonta a los años 90, donde la red de redes
empezaba a situarse como un medio de información global. Sin embargo, Internet
en sí mismo es más antiguo que eso. Creció de la fusión de varias redes de
ordenadores individuales – siendo la más antigua y la más influyente la llamada
ARPANET. En 1966, la agencia ARPA (Advanced Research Projects Agency)
tenía un programa con varias instituciones de investigación. La meta de ARPA era
enlazar diferentes ordenadores todos juntos, para mejorar la potencia general del
procesamiento de los ordenadores, y descentralizar el almacenamiento de
información.
El gobierno de los Estados Unidos quería encontrar una manera de acceder y
distribuir la información en caso de una catástrofe, como por ejemplo un ataque
nuclear. Si una bomba diera en un importante centro de ordenadores, las
transferencias de información se pararían de inmediato. Sin embargo, si se
pudieran unir varias redes diferentes y separadas, otras partes del sistema
seguirían funcionando incluso si algunos enlaces fueran destruidos.
Este proyecto de ARPA gradualmente fue evolucionando de la teoría a
proposiciones reales de construir esas redes. En 1968, ARPA envío una petición a
varias instituciones pidiendo ofertas para crear la primera red de área extensa
(WAN). La firma BBN ganó la oferta para diseñar 4 máquinas procesadoras de
mensajes que crearían comunicaciones abiertas entre los cuatro dispositivos
diferentes, y en cuatro sistemas operativos distintos.
El equipo que diseñó, construyo e instalo ARPANET esa muy diverso,
consistiendo en ingenieros eléctricos, científicos en computación, matemáticos y
estudiantes avanzados. Grabaron el resultado de sus estudios e investigaciones
en una serie de documentos llamados RFCs (Request for Comments), los cuales
están disponibles para todo aquel que los quiera consultar. Veremos a
continuación el equipamiento usado en los cuatro nodos originales de ARPANET,
y los protocolos diseñados para permitir que los diferentes ordenadores
compartieran información entre ellos.
Los ordenadores de ARPANET
Antes de ARPANET, muchos sistemas de ordenadores consistían en una masiva
cantidad de computadoras, algunas veces del tamaño de una habitación entera,
las cuales usaban terminales completamente cableados. Un terminal era de
alguna manera un interfaz de usuario, que a menudo consistía en un teclado o
lector de tarjeta. Muchos usuarios podían acceder al ordenador simultáneamente.
Las computadoras en redes más antiguas, requerían una conexión directa entre
dos ordenadores, significando que solo había una vía de comunicación para poder
transferir los datos. Las conexiones directas limitaban el tamaño de las redes de
ordenadores, las cuales se empezaron a llamar LANs.
ARPA quería construir un sistema de red que pudiera expandirse por toda
América, enlazando organizaciones gubernamentales y científicas en una manera
nunca vista hasta el momento. Sin embargo, la primera fase de ARPANET fue
mucho más modesta: Cuatro sistemas de ordenadores en diferentes
localizaciones se unirían usando líneas de teléfono y cuatro procesadores de
mensajes (IMPs).
ARPA eligió las primeras localizaciones basándose en algunas investigaciones
previas que había hecho con el gobierno de los Estados Unidos. Cada una de
estas localizaciones tenía su propio equipo de ingenieros responsables de
conectarse con ARPANET. Las cuatro máquinas en la estructura inicial de
ARPANET incluían:
Una computadora de la universidad de UCLA, la cual era una SDS Sigma 7,
funcionando con un sistema operativo experimental de la propia
universidad.
El instituto de investigación de Stanford, puso el ordenador SDS-90, que
funcionaba con un sistema operativo Genie.
En la universidad de California – en el centro de matemáticas interactivas puso una computadora IBM 360/75.
Por último, la universidad de UTA puso un ordenador DEC PDP-10 con un
sistema operativo Tenex.
En Agosto de 1969, el equipo de UCLA enlazó su computadora a un IMP – un
ordenador DDP 516 – siendo el primero de los cuatro sitios en conectarse a
ARPANET. En pocos días, ambos ordenadores podían intercambiar información.
En Octubre, el equipo de Stanford añadió el segundo enlace al sistema. Los
ordenadores de UCLA y Stanford se comunicaron entre si sobre una línea
telefónica de 50 kbps.
Hay que decir que en el primer intento, el sistema se vino abajo antes de que
UCLA pudiera enviar un comando completo al ordenador de Stamford.
Afortunadamente, todo funciono perfectamente en el segundo intento. Los otros
dos ordenadores se unieron a la red antes de finales de 1969. Por primera vez, los
científicos podían valorar la potencia de muchos ordenadores en localizaciones
remotas.
2. ¿QUE ES TPC IP? La familia de protocolos de Internet es un conjunto de
protocolos de red en los que se basa Internet y que permiten la transmisión de
datos entre redes de computadoras. En ocasiones se le denomina conjunto de
protocolos TCP/IP, en referencia a los dos protocolos más importantes que la
componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet
(IP), que fueron los dos primeros en definirse, y que son los más utilizados de la
familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100
diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer
Protocol), que es el que se utiliza para acceder a las páginas web, además de
otros como el ARP (Address Resolution Protocol) para la resolución de
direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el
SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo
electrónico, TELNET para acceder a equipos remotos, entre otros.
El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan
diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras
centrales sobre redes de área local (LAN) y área extensa (WAN).
TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el
Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una
red de área extensa de dicho departamento.
La familia de protocolos de Internet puede describirse por analogía con el modelo
OSI (Open System Interconnection), que describe los niveles o capas de la pila de
protocolos, aunque en la práctica no corresponde exactamente con el modelo en
Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas
relacionados con la transmisión de datos, y proporciona un servicio bien definido a
los niveles más altos. Los niveles superiores son los más cercanos al usuario y
tratan con datos más abstractos, dejando a los niveles más bajos la labor de
traducir los datos de forma que sean físicamente manipulables.
El modelo de Internet fue diseñado como la solución a un problema práctico de
ingeniería.
El modelo OSI, en cambio, fue propuesto como una aproximación teórica y
también como una primera fase en la evolución de las redes de ordenadores. Por
lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que
realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer
TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender
en el modelo OSI.
El 1 de enero de 2010 el Protocolo TCP/IP cumplió 27 años
Historia del Protocolo TCP/IP
La Familia de Protocolos de Internet fueron el resultado del trabajo llevado a cabo
por la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA por
sus siglas en inglés) a principios de los 70. Después de la construcción de la
pionera ARPANET en 1969 DARPA comenzó a trabajar en un gran número de
tecnologías de transmisión de datos. En 1972, Robert E. Kahn fue contratado por
la Oficina de Técnicas de Procesamiento de Información de DARPA, donde
trabajó en la comunicación de paquetes por satélite y por ondas de radio,
reconoció el importante valor de la comunicación de estas dos formas. En la
primavera de 1973, Vint Cerf, desarrollador del protocolo de ARPANET, Network
Control Program(NPC) se unió a Kahn con el objetivo de crear una arquitectura
abierta de interconexión y diseñar así la nueva generación de protocolos de
ARPANET.
Para el verano de 1973, Kahn y Cerf habían conseguido una remodelación
fundamental, donde las diferencias entre los protocolos de red se ocultaban
usando un Protocolo de comunicaciones y además, la red dejaba de ser
responsable de la fiabilidad de la comunicación, como pasaba en ARPANET , era
el host el responsable. Cerf reconoció el mérito de Hubert Zimmerman y Louis
Pouzin, creadores de la red CYCLADES, ya que su trabajo estuvo muy
influenciado por el diseño de esta red.
Con el papel que realizaban las redes en el proceso de comunicación reducido al
mínimo, se convirtió en una posibilidad real comunicar redes diferentes, sin
importar las características que éstas tuvieran. Hay un dicho popular sobre el
protocolo TCP/IP, que fue el producto final desarrollado por Cerf y Kahn, que dice
que este protocolo acabará funcionando incluso entre "dos latas unidas por un
cordón". De hecho hay hasta una implementación usando palomas mensajeras, IP
sobre palomas mensajeras, que está documentado en RFC 1149. 1 .2
Un ordenador denominado router (un nombre que fue después cambiado a
gateway, puerta de enlace, para evitar confusiones con otros tipos de Puerta de
enlace) esta dotado con una interfaz para cada red, y envía Datagramas de ida y
vuelta entre ellos. Los requisitos para estos routers están definidos en el RFC
1812. 3
Esta idea fue llevada a la práctica de una forma mas detallada por el grupo de
investigación que Cerf tenía en Stanford durante el periodo de 1973 a 1974, dando
como resultado la primera especificación TCP (Request for Comments 675,) 4
Entonces DARPA fue contratada por BBN Technologies, la Universidad de
Stanford, y la University College de Londres para desarrollar versiones
operacionales del protocolo en diferentes plataformas de hardware. Se
desarrollaron así cuatro versiones diferentes: TCP v1, TCP v2, una tercera dividida
en dos TCP v3 y IP v3 en la primavera de 1978, y después se estabilizó la versión
TCP/IP v4 — el protocolo estándar que todavía se emplea en Internet.
En 1975, se realizó la primera prueba de comunicación entre dos redes con
protocolos TCP/IP entre la Universidad de Stanford y la University College de
Londres (UCL). En 1977, se realizó otra prueba de comunicación con un protocolo
TCP/IP entre tres redes distintas con ubicaciones en Estados Unidos, Reino Unido
y Noruega. Varios prototipos diferentes de protocolos TCP/IP se desarrollaron en
múltiples centros de investigación entre los años 1978 y 1983. La migración
completa de la red ARPANET al protocolo TCP/IP concluyó oficialmente el día 1
de enero de 1983 cuando los protocolos fueron activados permanentemente. 5
En marzo de 1982, el Departamento de Defensa de los Estados Unidos declaró al
protocolo TCP/IP el estándar para las comunicaciones entre redes militares. 6 En
1985, el Centro de Administración de Internet (Internet Architecture Board IAB por
sus siglas en inglés) organizó un Taller de Trabajo de tres días de duración, al que
asistieron 250 comerciales promocionando así el protocolo lo que contribuyó a un
incremento de su uso comercial.
Kahn y Cerf fueron premiados con la Medalla Presidencial de la Libertad el 10 de
noviembre de 2005 por su contribución a la cultura Americana.7
Ventajas e inconvenientes
El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de
fiabilidad, es adecuado para redes grandes y medianas, así como en redes
empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los
servidores web. Es compatible con las herramientas estándar para analizar el
funcionamiento de la red.
Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que
NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de
tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen
de tráfico grande donde haya que enrutar un gran número de tramas.
El conjunto TCP/IP se utiliza tanto en campus universitarios como en complejos
empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o
a ordenadores UNIX, así como también en redes pequeñas o domésticas, e
incluso en teléfonos móviles y en domótica.
3¿.QUES WWW?
En informática, la World Wide Web, es un sistema de documentos de hipertexto o
hipermedios enlazados y accesibles a través de Internet. Con un navegador web,
un usuario visualiza sitios web compuestos de páginas web que pueden contener
texto, imágenes, videos u otros contenidos multimedia, y navega a través de ellas
usando hiperenlaces.
La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga
Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en
1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el
desarrollo de estándares Web (como los lenguajes de marcado con los que se
crean las páginas web), y en los últimos años ha abogado por su visión de una
Web Semántica
El primer paso consiste en traducir la parte nombre del servidor de la URL en una
dirección IP usando la base de datos distribuida de Internet conocida como DNS.
Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle
paquetes de datos.
El siguiente paso es enviar una petición HTTP al servidor Web solicitando el
recurso. En el caso de una página web típica, primero se solicita el texto HTML y
luego es inmediatamente analizado por el navegador, el cual, después, hace
peticiones adicionales para los gráficos y otros ficheros que formen parte de la
página. Las estadísticas de popularidad de un sitio web normalmente están
basadas en el número de páginas vistas o las peticiones de servidor asociadas, o
peticiones de fichero, que tienen lugar.
Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la
página tal y como se describe en el código HTML, el CSS y otros lenguajes web.
Al final se incorporan las imágenes y otros recursos para producir la página que ve
el usuario en su pantalla.
La mayoría de las páginas web contienen hiperenlaces a otras páginas
relacionadas y algunas también contienen descargas, documentos fuente,
definiciones y otros recursos web.
Esta colección de recursos útiles y relacionados, interconectados a través de
enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés)
de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee
llamó WorldWideWeb (un término escrito en Camel Case, posteriormente
desechado) en 1990.1
Si un usuario accede de nuevo a una página después de un pequeño intervalo, es
probable que no se vuelvan a recuperar los datos del servidor web de la forma en
que se explicó en el apartado anterior. Por defecto, los navegadores almacenan
en una caché del disco duro local todos los recursos web a los que el usuario va
accediendo. El navegador enviará una petición HTTP sólo si la página ha sido
actualizada desde la última carga, en otro caso, la versión almacenada se
reutilizará en el paso de renderizado para agilizar la visualización de la página.
Esto es particularmente importante para reducir la cantidad de tráfico web en
Internet. La decisión sobre la caducidad de la página se hace de forma
independiente para cada recurso (imagen, hoja de estilo, ficheros Java Script, etc.,
además de para el propio código HTML). Sin embargo en sitios de contenido muy
dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A
los diseñadores de sitios web les interesa reunir todo el código CSS y Java Script
en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser
descargados en las cachés de los usuarios y reducir así el tiempo de carga de las
páginas y las peticiones al servidor.
Aparte de las utilidades creadas en los servidores Web que pueden determinar
cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web
generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los
usuarios, de forma que las páginas intermedias o sensibles a problemas de
seguridad no sean guardadas en caché. Por ejemplo, en los bancos on line y las
páginas de noticias se utiliza frecuentemente este sistema.
Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' los datos solicitados con GET pueden ser almacenados en la caché, si se cumplen
las otras condiciones, mientras que con los datos obtenidos después de enviar
información al servidor con POST normalmente no se puede
La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los
años 40 sobre un sistema similar: a grandes rasgos, un entramado de información
distribuida con una interfaz operativa que permitía el acceso tanto a la misma
como a otros artículos relevantes determinados por claves. Este proyecto nunca
fue materializado, quedando relegado al plano teórico bajo el nombre de Memex.
Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema
de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta
1980, con un soporte operativo tecnológico para la distribución de información en
redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN
(refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de
Todo Sobre Todo), donde se materializa la realización práctica de este concepto
de incipientes nociones de la Web.
En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del
CERN, redacta la propuesta,2 que referenciaba a ENQUIRE y describía un
sistema de gestión de información más elaborado. No hubo un bautizo oficial o un
acuñamiento del término web en esas referencias iniciales utilizándose para tal
efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la
ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide
web3 el 12 de noviembre de 1990.
Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también
escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del
mismo año, Berners-Lee había creado todas las herramientas necesarias para que
una web funcionase:4 el primer navegador web (el cual también era un editor web),
el primer servidor web y las primeras páginas web5 que al mismo tiempo
describían el proyecto.
El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web
al newsgroup6 alt.hypertext. Esta fecha también señala el debut de la web como
un servicio disponible públicamente en Internet.
El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos
proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el
sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban
a su vez inspirados por el ya citado sistema basado en microfilm "memex", de
Vannevar Bush.
El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving
the Web (en castellano, Tejiendo la Red), explica que él había sugerido
repetidamente que la unión entre las dos tecnologías era posible para miembros
de las dos comunidades tecnológicas, pero como nadie aceptó su invitación,
decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un
sistema de identificadores únicos globales para los recursos web y también: el
Uniform Resource Identifier.
World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que
estaban disponibles en aquel momento:
WWW sólo requería enlaces unidireccionales en vez de los bidireccionales.
Esto hacía posible que una persona enlazara a otro recurso sin necesidad
de ninguna acción del propietario de ese recurso. Con ello se reducía
significativamente la dificultad de implementar servidores web y
navegadores (en comparación con los sistemas anteriores), pero en cambio
presentaba el problema crónico de los enlaces rotos.
A diferencia de sus predecesores, como HyperCard, World Wide Web era
no-propietario, haciendo posible desarrollar servidores y clientes
independientemente y añadir extensiones sin restricciones de licencia.
El 30 de abril de 1993, el CERN anunció7 que la web sería gratuita para todos, sin
ningún tipo de honorarios.
ViolaWWW fue un navegador bastante popular en los comienzos de la web que
estaba basado en el concepto de la herramienta hipertextual de software de Mac
denominada HyperCard. Sin embargo, los investigadores generalmente están de
acuerdo en que el punto de inflexión de la World Wide Web comenzó con la
introducción8 del navegador9 web Mosaic en 1993, un navegador gráfico
desarrollado por un equipo del NCSA en la Universidad de Illinois en UrbanaChampaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic
vino del High-Performance Computing and Communications Initiative, un programa
de fondos iniciado por el entonces gobernador Al Gore High Performance
Computing and Communication Act of 1991, también conocida como la Gore Bill.10
Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio
entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en
uso sobre Internet, como el protocolo Gopher y WAIS. La interfaz gráfica de
usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más
popular de una manera fulgurante...
4 ¿QUE ES HIPERVINCULO?
Un hiperenlace (también llamado enlace, vínculo, o hipervínculo) es un elemento
de un documento electrónico que hace referencia a otro recurso, por ejemplo, otro
documento o un punto específico del mismo o de otro Documento. Combinado con
una red de datos y un protocolo de acceso, un hiperenlace permite acceder al
recurso referenciado en diferentes formas, como visitarlo con un agente de
navegación, mostrarlo como parte del documento referenciador o guardarlo
localmente.
Los hiperenlaces son parte fundamental de la arquitectura de la World Wide Web,
pero el concepto no se limita al HTML o a la Web. Casi cualquier medio
electrónico puede emplear alguna forma de hiperenlace.
Un enlace cuenta con dos extremos, denominados anclas, y una dirección. El
enlace comienza en el ancla origen y apunta al ancla destino. Sin embargo, el
término enlace a menudo se utiliza para el ancla origen, mientras que al ancla
destino se denomina enlace de destino (link target).
El enlace de destino más común es un URL, utilizado en la World Wide Web.
Puede invocar a un documento, por ejemplo una página web, a otro recurso, o a
una posición determinada en una página web. Este último se consigue asignando
a un elemento HTML el atributo "name" o "id" en esa posición del documento
HTML. El URL de la posición es el URL de la página con "#atributo name"
añadido.
Cuando los enlaces de destino invocan, además de texto, elementos multimedia (
audio, video, imágenes, etc. ), puede decirse que estamos navegando en un
espacio hipermedia, un ámbito de interacción humana que intensifica la densidad
de los mensajes, dentro de la gama exhaustiva de supuestos funcionales que
aporta la Red, como por ejemplo: comunicación en tiempo real y en tiempo
diferido, comunicación de una persona a una persona, de varias a una, de una a
varias, de varias a varias, etc.
[editar] Comportamiento de los enlaces en los navegadores WEB
Un navegador web normalmente muestra un hiperenlace de alguna forma
distintiva, por ejemplo en un color, letra o estilo diferente. El comportamiento y
estilo de los enlaces se puede especificar utilizando lenguaje CSS.
El puntero del ratón también puede cambiar a forma de mano para indicar el
enlace. En muchos navegadores, los enlaces se muestran en texto azul subrayado
cuando no han sido visitados, y en texto púrpura subrayado cuando han sido
visitados. Cuando el usuario activa el enlace (por ejemplo pinchando sobre él con
el ratón) el navegador mostrará el destino del enlace. Si el destino no es un
archivo HTML, dependiendo del tipo de archivo y del navegador y sus plugins, se
puede activar otro programa para abrir el archivo.
El código HTML contiene todas las características principales de un enlace:
link target (URL) (destino)o (ubicación)
link label (etiqueta)
link title (título)
link class or link id (clase)
Utiliza el elemento "a" de HTML con el atributo "href" y opcionalmente otros
atributos como ―title‖, ―class‖, ―style‖, ―target‖ o ―id‖:
<a href="URL" title="título del enlace" class="clase del enlace">etiqueta del
enlace</a>
Cuando el puntero se sitúa sobre un enlace, dependiendo del navegador, se
muestra un texto informativo acerca del enlace:
Un texto emergente, que desaparece cuando el puntero se vuelve mover (a
veces desaparece igualmente pasados unos segundos). Internet Explorer y
Mozilla Firefox muestran el título, Opera muestra también el URL.
Además, el URL puede ser mostrado en la barra de estado
5. ¿QUES HTTP?
Hypertext Transfer Protocol o HTTP (en español protocolo de transferencia de
hipertexto) es el protocolo usado en cada transacción de la World Wide Web.
HTTP fue desarrollado por el World Wide Web Consortium y la Internet
Engineering Task Force, colaboración que culminó en 1999 con la publicación de
una serie de RFC, el más importante de ellos es el RFC 2616 que especifica la
versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos de
software de la arquitectura web (clientes, servidores, proxies) para comunicarse.
Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta
entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador web
o un spider) se lo conoce como "user agent" (agente del usuario). A la información
transmitida se la llama recurso y se la identifica mediante un localizador uniforme
de recursos (URL). Los recursos pueden ser archivos, el resultado de la ejecución
de un programa, una consulta a una base de datos, la traducción automática de un
documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información
sobre conexiones anteriores. El desarrollo de aplicaciones web necesita
frecuentemente mantener estado. Para esto se usan las cookies, que es
información que un servidor puede almacenar en el sistema cliente. Esto le
permite a las aplicaciones web instituir la noción de "sesión", y también permite
rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo
indeterminado
Una transacción P está formada por un encabezado seguido, opcionalmente, por
una línea en blanco y algún dato. El encabezado especificará cosas como la
acción requerida del servidor, o el tipo de dato retornado, o el código de estado.
El uso de campos de encabezados enviados en las tranes TP le dan gran
flexibilidad al protocolo. Estos campos permiten que se envíe información
descriptiva en la transacción, permitiendo así la autenticación, cifrado e
identificación de usuario.
Un encabezado es un bloque de datos que precede a la información propiamente
dicha, por lo que muchas veces se hace referencia a él como metadato —porque
tiene datos sobre los datos—.
Si se reciben líneas de encabezado del cliente, el servidor las coloca en las
variables de ambiente de CGI con el prefijo HTTP_ seguido del nombre del
encabezado. Cualquier carácter guión ( - ) del nombre del encabezado se
convierte a caracteres "_".
El servidor puede excluir cualquier encabezado que ya esté procesado, como
Authorization, Content-type y Content-length. El servidor puede elegir excluir
alguno o todos los encabezados si incluirlos excede algún límite del ambiente de
sistema. Ejemplos de esto son las variables HTP_ACPT y HTP_R_AEN.
HT_AEP'. Los tipos MIME que el cliente aceptará, dado los encabezados
HTTP. Otros protocolos quizás necesiten obtener esta información de otro
lugar. Los elementos de esta lista deben estar separados por una coma,
como lo dice la especificación HTTP: tipo, tipo.
HTT_USR_AET. El navegador que utiliza el cliente para realizar la petición.
El formato general para esta variable es: software/versión
biblioteca/versión.
El servidor envía al cliente:
Un código de estado que indica si la petición fue correcta o no. Los códigos
de error típicos indican que el archivo solicitado no se encontró, que la
petición no se realizó de forma correcta o que se requiere autenticación
para acceder al archivo.
La información propiamente dicha. Como HTTP permite enviar documentos
de todo tipo y formato, es ideal para transmitir multimedia, como gráficos,
audio y video. Esta libertad es una de las mayores ventajas de HTTP.
Información sobre el objeto que se retorna.
Ten en cuenta que la lista no es una lista completa de los campos de encabezado
y que algunos de ellos sólo tienen sentido en una dirección
HTTP ha pasado por múltiples versiones del protocolo, muchas de las cuales son
compatibles con las anteriores. El RFC 2145 describe el uso de los números de
versión de HTTP. El cliente le dice al servidor al principio de la petición la versión
que usa, y el servidor usa la misma o una anterior en su respuesta.
0.9
Obsoleta. Soporta sólo un comando, GET, y además no especifica el
número de versión HTTP. No soporta cabeceras. Como esta versión no
soporta POST, el cliente no puede enviarle mucha información al servidor.
HTTP/1.0 (mayo 1996)
Esta es la primera revisión del protocolo que especifica su versión en las
comunicaciones, y todavía se usa ampliamente, sobre todo en servidores
proxy.
HTTP/1.1 (junio 1999)1 2
Versión actual; las conexiones persistentes están activadas por defecto y
funcionan bien con los proxies. También permite al cliente enviar múltiples
peticiones a la vez (pipelining) lo que hace posible eliminar el tiempo de
Round-Trip delay por cada petición.
HTTP/1.2
Los primeros borradores de 1995 del documento PEP — an Extension
Mechanism for HTTP (el cuál propone el Protocolo de Extensión de
Protocolo, abreviado PEP) los hizo el World Wide Web Consortium y se
envió al Internet Engineering Task Force. El PEP inicialmente estaba
destinado a convertirse en un rango distintivo de HTTP/1.2.3 En borradores
posteriores, sin embargo, se eliminó la referencia a HTTP/1.2. El RFC 2774
(experimental), HTTP Extension Framework, incluye en gran medida a PEP.
Se publicó en febrero de 2000.
Para obtener un recurso con el URL http://www.example.com/index.html
1. Se abre una conexión al host www.example.com, puerto 80 que es el
puerto por defecto para HTTP.
2. Se envía un mensaje en el estilo siguiente:
GET /index.html HTTP/1.1
Host: www.example.com
User-Agent: nombre-cliente
[Línea en blanco]
La respuesta del servidor está formada por encabezados seguidos del recurso
solicitado, en el caso de una página web:
HTTP/1.1 200 OK
Date: Fri, 31 Dec 2003 23:59:59 GMT
Content-Type: text/html
Content-Length: 1221
<html>
<body>
<h1>Página principal de tuHost</h1>
(Contenido)
.
.
.
</body>
</html>
[editar] Primeros Servidores
CERN httpd Server
NCSA httpd server
Compuserve httpd server
Métodos de Petición
Un pedido HTTP usando telnet. El pedido (request), cabeceras de respuesta
(response headers) y el cuerpo de la respuesta (response body) estan resaltados.
HTTP define 8 métodos (algunas veces referido como "verbos") que indica la
acción que desea que se efectúe sobre el recurso identificado. Lo que este
recurso representa, si los datos pre-existentes o datos que se generan de forma
dinámica, depende de la aplicación del servidor. A menudo, el recurso
corresponde a un archivo o la salida de un ejecutable que residen en el servidor.
HEAD
Pide que la respuesta idéntica a la que correspondería a una petición GET,
pero sin el cuerpo de la respuesta. Esto es útil para la recuperación de
meta-información escrita en los encabezados de respuesta, sin tener que
transportar todo el contenido.
GET
Pide una representación del recurso especificado. Por seguridad no debería
ser usado por aplicaciones que causen efectos ya que transmite
información a través de la URI agregando parámetros a la URL.
Ejemplo:
GET /images/logo.png HTTP/1.1 obtiene un recurso llamado logo.png
Ejemplo con parámetros:
/index.php?page=main&lang=es
POST
Somete los datos a que sean procesados para el recurso identificado. Los
datos se incluirán en el cuerpo de la petición. Esto puede resultar en la
creación de un nuevo recurso o de las actualizaciones de los recursos
existentes o ambas cosas.
PUT
Sube, carga o realiza un upload de una de un recurso especificado
(archivo), es el camino más eficiente para subir archivos a un servidor, esto
es porque en POST utiliza un mensaje multiparte y el mensaje es
decodificado por el servidor. En contraste, el método PUT te permite
escribir un archivo en una conexión socket establecida con el servidor.
La desventaja del método PUT es que los servidores de hosting compartido
no lo tienen habilitado.
Ejemplo:
PUT /path/filename.html HTTP/1.1
DELETE
Borra el recurso especificado.
TRACE
Este método solicita al servidor que envíe de vuelta en un mensaje de
respuesta, en la sección del cuerpo de entidad, toda la data que reciba del
mensaje de solicitud. Se utiliza con fines de comprobación y diagnostico.
OPTIONS
Devuelve los método HTTP que el servidor soporta para un URL
especifico.Esto puede ser utilizado para comprobar la funcionalidad de un
servidor web mediante peticion en lugar de un recurso especifico
CONNECT
Códigos de respuesta
Son códigos de tres dígitos (vea también Anexo:Códigos de estado HTTP):
1xx Mensajes
N°
Descripció
n
100 111
Conexión rechazada
2xx Operación exitosa
N°
Descripción
200
OK
201-203 Información no oficial
204
Sin Contenido
205
Contenido para recargar
206
Contenido parcial
3xx Redireción
N° Descripción
301 Mudado permanentemente
302 Encontrado
303 Vea otros
304 No modificado
305 Utilice un proxy
307 Redirección temporal
4xx Error por parte del cliente
N° Descripción
400 Solicitud incorrecta
402 Pago requerido
403 Prohibido
404 No encontrado
409 Conflicto
410 Ya no disponible
412 Falló precondición
5xx Error del servidor
N° Descripción
500 Error interno
501 No implementado
502 Pasarela incorrecta
503 Servicio nodisponible
504 Tiempo de espera de la pasarela agotado
505 Versión de HTTP no soportada
6. ¿QUES LA WEB2.0?
Web 2.0 es la representación de la evolución de las aplicaciones tradicionales
hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no
precisamente una tecnología.
La Web 2.0 es la transición que se ha dado de
aplicaciones tradicionales hacia aplicaciones que funcionan a través del web
enfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de
servicios que reemplacen las aplicaciones de escritorio.
Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose
por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos
reinventado lo que era el Internet, otros hablan de burbujas e inversiones, pero la
realidad es que la evolución natural del medio realmente ha propuesto cosas más
interesantes como lo analizamos diariamente en las notas de Actualidad.
Y es que cuando el web inició, nos encontrábamos en un entorno estático, con
páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el
usuario.
Pero para entender de donde viene el término de Web 2.0 tenemos que
remontarnos al momento en que Dale Dougherty de O’Reilly Media utilizó este
término en una conferencia en la que compartió una lluvia de ideas junto a Craig
Cline de MediaLive. En dicho evento se hablaba del renacimiento y evolución de la
web.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con
sorprendentes funcionalidades. Y así se dio la pauta para la Web 2.0 conference
que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con
eventos adicionales utilizando la marca en otros países.
En la charla inicial del Web Conference se habló de los principios que tenían las
aplicaciones Web 2.0:
La web es la plataforma
La información es lo que mueve al Internet
Efectos de la red movidos por una arquitectura de participación.
La innovación surge de características distribuidas por desarrolladores
independientes.
El fin del círculo de adopción de software pues tenemos servicios en beta
perpetuo
La Web 2.0 con ejemplos
Entender la evolución que ha llegado con la Web 2.0 puede realizarse con
ejemplos, con proyectos. Podemos comparar servicios web que marcan
claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:
Web 1.0 > Web 2.0
Doubleclick –> Google AdSense (Servicios Publicidad)
Ofoto –> Flickr (Comunidades fotográficas)
Akamai –> BitTorrent (Distribución de contenidos)
mp3.com –> Napster (Descargas de música)
Britannica Online –> Wikipedia (Enciclopedias)
Sitios personales –> Blogs (Páginas personales)
Especulación con dominios –> Optimización en motores de búsqueda SEO
Páginas vistas –> Costo por click
CMSs –> Wikis (Administradores de contenidos)
Categorías/Directorios –> Tags
¿Qué tecnologías apoyan a la Web 2.0?
El Web 2.0 no significa precisamente que existe una receta para que todas
nuestras aplicaciones web entren en este esquema. Sin embargo, existen varias
tecnologías que están utilizándose actualmente y que deberíamos de examinar
con más cuidado en busca de seguir evolucionando junto al web.
Tecnologías que dan vida a un proyecto Web 2.0:
Transformar software de escritorio hacia la plataforma del web.
Respeto a los estándares como el XHTML.
Separación de contenido del diseño con uso de hojas de estilo.
Sindicación de contenidos.
Ajax (javascript ascincrónico y xml).
Uso de Flash, Flex o Lazlo.
Uso de Ruby on Rails para programar páginas dinámicas.
Utilización de redes sociales al manejar usuarios y comunidades.
Dar control total a los usuarios en el manejo de su información.
Proveer APis o XML para que las aplicaciones puedan ser manipuladas por
otros.
Facilitar el posicionamiento con URL sencillos.
¿En qué nos sirve la Web 2.0?
El uso de el término de Web 2.0 está de moda, dándole mucho peso a una
tendencia que ha estado presente desde hace algún tiempo. En Internet las
especulaciones han sido causantes de grandes burbujas tecnológicas y han hecho
fracasar a muchos proyectos.
Además, nuestros proyectos tienen que renovarse y evolucionar. El Web 2.0 no es
precisamente una tecnología, sino es la actitud con la que debemos trabajar para
desarrollar en Internet. Tal vez allí está la reflexión más importante del Web 2.0.
Yo ya estoy trabajando en renovar y mejorar algunos proyectos, no por que
busque etiquetarlos con nuevas versiones, sino por que creo firmemente que la
única constante debe ser el cambio, y en Internet, el cambio debe de estar
presente más frecuentemente
7. ¿QUE ES FTP?
FTP (sigla en inglés de File Transfer Protocol - Protocolo de Transferencia de
Archivos) en informática, es un protocolo de red para la transferencia de archivos
entre sistemas conectados a una red TCP (Transmission Control Protocol),
basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede
conectar a un servidor para descargar archivos desde él o para enviarle archivos,
independientemente del sistema operativo utilizado en cada equipo.
El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red
TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un
problema básico de FTP es que está pensado para ofrecer la máxima velocidad
en la conexión, pero no la máxima seguridad, ya que todo el intercambio de
información, desde el login y password del usuario en el servidor hasta la
transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de
cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al
servidor, o apropiarse de los archivos transferidos.
Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp,
incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el
tráfico.
En el modelo, el intérprete de protocolo (PI) de usuario, inicia la conexión de
control en el puerto 21. Las órdenes FTP estándar las genera el PI de usuario y se
transmiten al proceso servidor a través de la conexión de control. Las respuestas
estándar se envían desde el PI del servidor al PI de usuario por la conexión de
control como respuesta a las órdenes.
Estas órdenes FTP especifican parámetros para la conexión de datos (puerto de
datos, modo de transferencia, tipo de representación y estructura) y la naturaleza
de la operación sobre el sistema de archivos (almacenar, recuperar, añadir, borrar,
etc.). El proceso de transferencia de datos (DTP) de usuario u otro proceso en su
lugar, debe esperar a que el servidor inicie la conexión al puerto de datos
especificado (puerto 20 en modo activo o estándar) y transferir los datos en
función de los parámetros que se hayan especificado.
Vemos también en el diagrama que la comunicación entre cliente y servidor es
independiente del sistema de archivos utilizado en cada computadora, de manera
que no importa que sus sistemas operativos sean distintos, porque las entidades
que se comunican entre sí son los PI y los DTP, que usan el mismo protocolo
estandarizado: el FTP.
También hay que destacar que la conexión de datos es bidireccional, es decir, se
puede usar simultáneamente para enviar y para recibir, y no tiene por qué existir
todo el tiempo que dura la conexión FTP
8. ¿Qué ES HTML, PHPY ASP?
HTML, siglas de HyperText Markup Language (Lenguaje de Marcado de
Hipertexto), es el lenguaje de marcado predominante para la elaboración de
páginas web. Es usado para describir la estructura y el contenido en forma de
texto, así como para complementar el texto con objetos tales como imágenes.
HTML se escribe en forma de "etiquetas", rodeadas por corchetes angulares (<,>).
HTML también puede describir, hasta un cierto punto, la apariencia de un
documento, y puede incluir un script (por ejemplo Javascript), el cual puede afectar
el comportamiento de navegadores web y otros procesadores de HTML.
HTML también es usado para referirse al contenido del tipo de MIME text/html o
todavía más ampliamente como un término genérico para el HTML, ya sea en
forma descendida del XML (como XHTML 1.0 y posteriores) o en forma
descendida directamente de SGML (como HTML 4.01 y anteriores).
La primera descripción de HTML disponible públicamente fue un documento
llamado HTML Tags (Etiquetas HTML), publicado por primera vez en Internet por
Tim Berners-Lee en 1991.1 2 Describe 22 elementos comprendiendo el diseño
inicial y relativamente simple de HTML. Trece de estos elementos todavía existen
en HTML 4.3
Berners-Lee consideraba a HTML una ampliación de SGML, pero no fue
formalmente reconocida como tal hasta la publicación de mediados de 1993, por la
IETF, de una primera proposición para una especificación de HTML: el boceto
Hypertext Markup Language de Berners-Lee y Dan Connolly, el cual incluía una
Definición de Tipo de Documento SGML para definir la gramática.4 El boceto
expiró luego de seis meses, pero fue notable por su reconocimiento de la etiqueta
propia del navegador Mosaic usada para insertar imágenes sin cambio de línea,
reflejando la filosofía del IETF de basar estándares en prototipos con éxito. 5
Similarmente, el boceto competidor de Dave Raggett HTML+ (Hypertext Markup
Format) (Formato de marcaje de hipertexto), de 1993 tardío, sugería, estandarizar
características ya implementadas tales como tablas.6
PHP
PHP es un lenguaje de programación interpretado, diseñado originalmente para la
creación de páginas web dinámicas. Es usado principalmente en interpretación del
lado del servidor (server-side scripting) pero actualmente puede ser utilizado
desde una interfaz de línea de comandos o en la creación de otros tipos de
programas incluyendo aplicaciones con interfaz gráfica usando las bibliotecas Qt o
GTK+.
PHP es un acrónimo recursivo que significa PHP Hypertext Pre-processor
(inicialmente PHP Tools, o, Personal Home Page Tools). Fue creado originalmente
por Rasmus Lerdorf en 1994; sin embargo la implementación principal de PHP es
producida ahora por The PHP Group y sirve como el estándar de facto para PHP
al no haber una especificación formal. Publicado bajo la PHP License, la Free
Software Foundation considera esta licencia como software libre
PHP es un lenguaje interpretado de propósito general ampliamente usado,
diseñado especialmente para desarrollo web y que puede ser incrustado dentro de
código HTML. Generalmente se ejecuta en un servidor web, tomando el código en
PHP como su entrada y creando páginas web como salida. Puede ser desplegado
en la mayoría de los servidores web y en casi todos los sistemas operativos y
plataformas sin costo alguno. PHP se encuentra instalado en más de 20 millones
de sitios web y en un millón de servidores, el número de sitios en PHP ha
compartido algo de su preponderante sitio con otros nuevos lenguajes no tan
poderosos desde agosto de 2005. Este mismo sitio web de Wikipedia está
desarrollado en PHP. Es también el módulo Apache más popular entre las
computadoras que utilizan Apache como servidor web. La versión más reciente de
PHP es la 5.3.3, del 22 de julio de 2010.
El gran parecido que posee PHP con los lenguajes más comunes de
programación estructurada, como C y Perl, permiten a la mayoría de los
programadores crear aplicaciones complejas con una curva de aprendizaje muy
corta. También les permite involucrarse con aplicaciones de contenido dinámico
sin tener que aprender todo un nuevo grupo de funciones.
Aunque todo en su diseño está orientado a facilitar la creación de página web, es
posible crear aplicaciones con una interfaz gráfica para el usuario, utilizando la
extensión PHP-Qt o PHP-GTK. También puede ser usado desde la línea de
órdenes, de la misma manera como Perl o Python pueden hacerlo; a esta versión
de PHP se la llama PHP-CLI (Command Line Interface).
Cuando el cliente hace una petición al servidor para que le envíe una página web,
el servidor ejecuta el intérprete de PHP. Éste procesa el script solicitado que
generará el contenido de manera dinámica (por ejemplo obteniendo información
de una base de datos). El resultado es enviado por el intérprete al servidor, quien
a su vez se lo envía al cliente. Mediante extensiones es también posible la
generación de archivos PDF, Flash, así como imágenes en diferentes formatos
9.¿ PUERTOS
IP UTILIZADOS EN INTERNET?
Los puertos IP son numerados del 0 al 65536. Sin embargo, no son
asignados de forma aleatoria, sino que reajustan a los estándares de
la IANA (Internet Assigned Numbers Authority). Los puertos del 0 al
1023, también conocidos como ―puertos bien conocidos‖, son
asignados por la IANA y generalmente son reservados para procesos
de sistema. Por ejemplo, como se ha comentado antes, el protocolo
http tiene asignado el puerto 80. Los puertos 1024-49151 son
llamados ―puertos registrados‖, y sus asignaciones son coordinadas y
aprobadas también por IANA. Se tiene mucho cuidado para que no
haya
conflictos
entre
puertos.
El resto de puertos se llaman ―dinámicos‖ o ―puertos privados‖. Estos
puertos no están regulados. A continuación se dan algunos procesos
comunes
y
su
asignación
de
puertos:
* Puerto 20 y 21 – FTP para transferencia de
*
Puerto
22
–
*
Puerto
25
–
SMTP
para
envío
de
* Puerto 53 – DNS para servicio nombre de
*
Puerto
80
–
http
para
*
Puerto110
–
POP3
para
recibir
* Puerto 119 – NNTP para grupos de noticias
archivos
SSH
correo
dominio
Internet
correos
10. ¿QUE ES UN MOTOR DE BUSQUEDA?
Un motor de búsqueda es un sistema informático que busca archivos
almacenados en servidores web gracias a su «spider» (o Web
crawler). Un ejemplo son los buscadores de Internet (algunos buscan
sólo en la Web pero otros buscan además en noticias, servicios como
Gopher, FTP, etc.) cuando se pide información sobre algún tema. Las
búsquedas se hacen con palabras clave o con árboles jerárquicos por
temas; el resultado de la búsqueda es un listado de direcciones Web
en los que se mencionan temas relacionados con las palabras clave
buscadas.
Como operan en forma automática, los motores de búsqueda
contienen generalmente más información que los directorios. Sin
embargo, estos últimos también han de construirse a partir de
búsquedas (no automatizadas) o bien a partir de avisos dados por los
creadores de páginas (lo cual puede ser muy limitante). Los buenos
directorios combinan ambos sistemas. Hoy en día Internet se ha
convertido en una herramienta, para la búsqueda de información,
rápida, para ello han surgido los buscadores que son un motor de
búsqueda que nos facilita encontrar información rápida de cualquier
tema de interés, en cualquier área de las ciencias, y de cualquier parte
del mundo
11. ¿QUE ES EL AVATAR EN INTERNET?
En Internet y otras tecnologías de comunicación modernas, se
denomina avatar a una representación gráfica, generalmente humana,
que se asocia a un usuario para su identificación. Los avatares pueden
ser fotografías o dibujos artísticos, y algunas tecnologías permiten el
uso de representaciones tridimensionales
12. ¿QUE ES MENSAJERIA INSTANTANEA?
La mensajería instantánea (conocida también en inglés como IM) es
una forma de comunicación en tiempo real entre dos o más personas
basada en texto. El texto es enviado a través de dispositivos
conectados a una red como Internet.
La mensajería instantánea requiere el uso de un cliente de mensajería
instantánea que realiza el servicio y se diferencia del correo
electrónico en que las conversaciones se realizan en tiempo real. La
mayoría de los servicios ofrecen el "aviso de presencia", indicando
cuando el cliente de una persona en la lista de contactos se conecta o
en que estado se encuentra, si está disponible para tener una
conversación. En los primeros programas de mensajería instantánea,
cada letra era enviada según se escribía y así, las correcciones de las
erratas también se veían en tiempo real. Esto daba a las
conversaciones mas la sensación de una conversación telefónica que
un intercambio de texto. En los programas actuales, habitualmente, se
envía cada frase de texto al terminarse de escribir. Además, en
algunos, también se permite dejar mensajes aunque la otra parte no
esté conectada al estilo de un contestador automático. Otra función
que tienen muchos servicios es el envío de ficheros.
13. ¿QUE ES SECOND LIFE?
es un metaverso lanzado el 23 de junio de 2003, desarrollado por
Linden Lab, y es accesible gratuitamente en Internet. Sus usuarios,
conocidos como "residentes", pueden acceder a SL mediante el uso
de uno de los múltiples programas de interface llamados Viewers
(visores), lo cual les permite interactuar entre ellos mediante un
avatar.4 Los residentes pueden así explorar el mundo virtual,
interactuar con otros residentes, establecer relaciones sociales,
participar en diversas actividades tanto individuales como en grupo y
crear y comerciar propiedad virtual y servicios entre ellos. SL está
reservado para mayores de 18 años. Existe una alternativa para
personas de entre 13 y 17 conocida como Teen Second Life.
Para acceder al programa es requisito imprescindible crear una
cuenta, la cual da acceso al mundo y al avatar individual. Los avatares
son caracteres tridimensionales personalizables lo que le da a los
usuarios la capacidad de convertirse el personaje que deseen y gozar
(como el mismo nombre del programa indica) de una segunda vida.
Su segundo atractivo más importante es la posibilidad de crear objetos
e intercambiar diversidad de productos virtuales a través de un
mercado abierto que tiene como moneda local el Linden Dólar ($L). En
el mismo programa se incluye una herramienta de creación en 3D
basada en simples figuras geométricas (conocidos como prims o
primitivas) y que permite a los residentes la construcción de objetos
virtuales. Estos elementos pueden usarse en combinación con el
lenguaje de programación LSL o Linden Scripting Language a fin de
añadir funcionalidad a los objetos. Objetos más complejos, como
sculpties o complejos prims tridimensionales, texturas para ropas u
objetos, animaciones o gestos pueden ser creados externamente e
importados a SL. Los Términos de Servicio de SL (conocidos opor su
abreviatura inglesa: TOS) aseguraban hasta recientes cambios la
retención de los derechos de autor por parte de los creadores de los
objetos, mientras que Linden Labs proveía simples funciones de
gestión de derechos digitales en sus servidores y su acceso. Los
recientes cambio producidos en el TOS han eliminado gran parte de
los derechos de los creadores, al establecerse Linden Labs como
propietario de todo el software presente en sus servidores, eliminando
el derecho de los creadores al ser un entorno cerrado.
14. ¿QUE ES EMAIL?
es un servicio de red que permite a los usuarios enviar y recibir
mensajes
rápidamente
(también
denominados
mensajes
electrónicos o cartas electrónicas) mediante sistemas de
comunicación electrónicos. Principalmente se usa este nombre para
denominar al sistema que provee este servicio en Internet, mediante el
protocolo SMTP, aunque por extensión también puede verse aplicado
a sistemas análogos que usen otras tecnologías. Por medio de
mensajes de correo electrónico se puede enviar, no solamente texto,
sino todo tipo de documentos digitales. Su eficiencia, conveniencia y
bajo coste (con frecuencia nulo) están logrando que el correo
electrónico desplace al correo ordinario para muchos usos habituales.
15. ¿QUE ES SMTP?
Protocolo Simple de Transferencia de Correo, es un protocolo de la
capa de aplicación. Protocolo de red basado en texto utilizado para el
intercambio de mensajes de correo electrónico entre computadoras u
otros dispositivos (PDA's, teléfonos móviles, etc.). Está definido en el
RFC 2821 y es un estándar oficial de Internet.
QUE ES POP3
En informática se utiliza el Post Office Protocol (POP3, Protocolo de
la oficina de correo) en clientes locales de correo para obtener los
mensajes de correo electrónico almacenados en un servidor remoto.
Es un protocolo de nivel de aplicación en el Modelo OSI.
POP3 está diseñado para recibir correo, no para enviarlo; le permite a
los usuarios con conexiones intermitentes ó muy lentas (tales como las
conexiones por módem), descargar su correo electrónico mientras
tienen conexión y revisarlo posteriormente incluso estando
desconectados. Cabe mencionar que la mayoría de los clientes de
correo incluyen la opción de dejar los mensajes en el servidor, de
manera tal que, un cliente que utilice POP3 se conecta, obtiene todos
los mensajes, los almacena en la computadora del usuario como
mensajes nuevos, los elimina del servidor y finalmente se desconecta.
En contraste, el protocolo IMAP permite los modos de operación
conectado y desconectado
16. ¿QUE ES P2P?
POP3 está diseñado para recibir correo, no para enviarlo; le permite a
los usuarios con conexiones intermitentes ó muy lentas (tales como las
conexiones por módem), descargar su correo electrónico mientras
tienen conexión y revisarlo posteriormente incluso estando
desconectados. Cabe mencionar que la mayoría de los clientes de
correo incluyen la opción de dejar los mensajes en el servidor, de
manera tal que, un cliente que utilice POP3 se conecta, obtiene todos
los mensajes, los almacena en la computadora del usuario como
mensajes nuevos, los elimina del servidor y finalmente se desconecta.
En contraste, el protocolo IMAP permite los modos de operación
conectado y desconectado
17. ¿QUE SON LAS REDES SOCIALES Y MENCIONE ALGUNAS
DE ELLAS?
Las Redes son formas de interacción social, definida como un
intercambio dinámico entre personas, grupos e instituciones en
contextos de complejidad. Un sistema abierto y en construcción
permanente que involucra a conjuntos que se identifican en las
mismas necesidades y problemáticas y que se organizan para
potenciar sus recursos
En las redes sociales en Internet tenemos la posibilidad de interactuar
con otras personas aunque no las conozcamos, el sistema es abierto y
se va construyendo obviamente con lo que cada suscripto a la red
aporta, cada nuevo miembro que ingresa transforma al grupo en otro
nuevo. La red no es lo mismo si uno de sus miembros deja de ser
parte.
ALGUNAS DE ESTAS REDES SON: MYSPACE, FACEBOOK,
TWITTER, SONICO, Hi 5.
18. ¿QUE ES DOMINIO?
Un dominio de Internet es una red de identificación asociada a un
grupo de dispositivos o equipos conectados a la red Internet.
El propósito principal de los nombres de dominio en Internet y del
sistema de nombres de dominio (DNS), es traducir las direcciones IP
de cada nodo activo en la red, a términos memorizables y fáciles de
encontrar. Esta abstracción hace posible que cualquier servicio (de
red) pueda moverse de un lugar geográfico a otro en la red Internet,
aun cuando el cambio implique que tendrá una dirección IP diferente.
Sin la ayuda del sistema de nombres de dominio, los usuarios de
Internet tendrían que acceder a cada servicio web utilizando la
dirección IP del nodo (Ej. Sería necesario utilizar http://216.34.94.183
en vez de http://dominio.com).
19.¿QUE ES UN HOSTING?
El alojamiento web (en inglés web hosting) es el servicio que provee
a los usuarios de Internet un sistema para poder almacenar
información, imágenes, vídeo, o cualquier contenido accesible vía
Web. Es una analogía de hospedaje o alojamiento en hoteles o
habitaciones donde uno ocupa un lugar específico, en este caso la
analogía alojamiento web o alojamiento de páginas web, se refiere al
lugar que ocupa una página web, sitio web, sistema, correo
electrónico, archivos etc. en Internet o más específicamente en un
servidor que por lo general hospeda varias aplicaciones o páginas
web.
Los Web Host son compañías que proporcionan espacio de un
servidor a sus clientes.
El hospedaje web aunque no es necesariamente un servicio, se ha
convertido en un lucrativo negocio para las compañías de IT alrededor
del mundo
Se puede definir como un lugar para tu página web o correos
electrónicos, aunque esta definición simplifica de manera conceptual el
hecho de que el alojamiento web es en realidad espacio en Internet
para prácticamente cualquier tipo de información, sea archivos,
sistemas, correos electrónicos, videos etc.