Wifi gratis para todos en Estados Unidos

La Comisión Federal de Comunicaciones (FCC) propuso en 2012 lanzar WiFi gratis a nivel nacional en Estados Unidos como medida con la que estimular la innovación tecnológica y el crecimiento económico.

El plan que desde el primer momento ha contado con el apoyo de las grandes compañías tecnologicas como Google o Microsoft, todavía debe ser aprobado en el Congreso norteamericano para que sea efectivo. No obstante, el regulador estadounidense de las telecomunicaciones ya ha empezado a liberar el espectro de 195 MHz en la banda de frecuencia de 5 GHz.

Todo apunta que el Gobierno norteamericano está dispuesto a invertir el dinero necesario para instalar esta red que funcionaría a través de una conexión WiMax, con la que ofrecer un servicio de banda ancha.

Compañía proveedoras de Internet y empresas de la industria telefónica como AT&T, o T-Mobile, han mostrado su rechazo al plan de la Comisión Federal de Comunicaciones instando a traves de sus grupos de presión, que ya cuentan con el beneplacito del Partido Republicano, para que se subasten más frecuencias en lugar de liberar el espectro.

Las frecuencias que el Gobierno quiere liberar son mucho más potentes que aquellas en las que actualmente se ofrece el WiFi de uso doméstico y tienen un alcance mucho mayor, ideal para ofrecer servicios de banda ancha en zonas de difícil acceso donde el despliegue de cable no es rentable.

Caso de ser aprobado el plan de FCC, todavía pasarían varios años hasta que se tuviera acceso libre a Internet. Además el proyecto tendría cierta complejidad a la hora de evitar que las conexiones quedaran colapsadas en grandes ciudades con millones de habitantes. No obstante lo anterior, Google ya está proveyendo de WiFi gratuito a ciertos barrios de Nueva York y a determinadas zonas de Silicon Valley.

Esta ambiciosa iniciativa está siendo observada por otras instituciones de otros países interesadas en ver las posibilidades de implementar una red WiFi gratuita con la que no solo facilitar el acceso a Internet a los ciudadanos con menos recursos económicos sino impulsar el crecimiento de las nuevas tecnologías como motor de crecimiento económico.
fuente.desarrolloweb

Desarrollan sistema Wi-Fi que podría transmitir siete películas Blu-ray por segundo

Los 300 Mbps de conexión por fibra óptica que ofrece Verizon en su paquete hogareño FiOS Quantum, considerada la conexión más rápida del mundo disponible, quedarán como un miserable modem de 56 Kbps frente a los 2.5 Terabytes por segundo que lograron transmitir en forma inalámbrica unos científicos en California.

Con esta velocidad, para transmitir siete películas completas en formato Blu-ray se necesitaría un segundo de tiempo (ya imagino ansiosos comprando pelotitas antiestrés por la espera).

Este logro fue conseguido por un equipo de investigadores estadounidenses e israelíes en el laboratorio de Propulsión a Chorro de la NASA en la Universidad de California Sur. Utilizando ondas electromagnéticas torcidas hacia su vórtice, lograron meter muchos más datos en una única corriente de señales.

Este equipo logró torcer ocho corrientes de datos para ser transmitidas en simultáneo, cada una con una capacidad de 300Gbps, logrando así el récord de transmisión de 2.5Tbps.

La nueva técnica de transmisión fue testeada entre dos puntos a un metro de distancia y con equipos de alta tecnología, lo que implica que por el momento, tendremos que esperar a que se pueda mantener un nivel de amplificación de señal suficiente para transmitir a distancias más amplias y a través de hardware con capacidad para generar esta señal híper rápida a costos accesibles para el mercado.

Según los científicos, esta técnica, en teoría, podría utilizarse para torcer cientos y hasta miles de señales a la vez, lo que permitiría no sólo mayores velocidades sino una atención a la demanda de múltiples envíos en un sólo haz, técnica que podría resolver los problemas actuales de ancho de banda en algunos tipos de servicios de comunicación.

Link: Scientists Create Wi-Fi That Can Transmit Seven Blu-ray Movies Per Second (gizmodo)

fuente.fayerwayer

Tipos de Redes, Cableado Estructurado

Redes de área local (LAN)

Cuando hablamos de LAN podemos decir que se trata de redes pequeñas, generalmente localizadas en una misma situación geográfica y que suelen dar servicio a una sola empresa, edificio, casa, etc.

Cómo su tamaño es reducido podemos entender que ni siquiera requiera de un administrador de red y los componentes de la misma también sean reducidos, aunque en algunos casos las LAN de empresas grandes pueden tener un número de puestos considerables y requerir de varios administradores de red. Este tipo de redes pueden estar compuestas por cables, inalambricas o ambas a la vez.
Su capacidad de transmisión esta comprendida entre 1Mbps y 1Gbps.
Tiene varias tipologías de red que veremos más adelante.

Redes de área amplia (WAN)

Para entender este tipo de red vamos a dar un ejemplo. Pensemos que estamos en una multinacional, con varias sedes en distintos países. Cada sede posee su LAN, pero tienen que estar comunicadas entre sí, bien pues esa comunicación se realiza a través de la red WAN.

Las redes WAN utilizan dispositivos especiales para realizar las interconexiones entre las distintas redes LAN. Además pueden usar sistemas de comunicación vía satélite o radio.

Más adelante también veremos sus diferentes tipologías.

Intranet

Hablamos de Intranet cuando queremos hablar de redes LAN y WAN privadas dentro de una empresa, organización, etc. a las cuales solo se tiene acceso mediante usuario y contraseñas privadas.

Este tipo de redes se suelen utilizar para compartir recursos dentro de la red, es decir, suelen servir para alojar paginas web de la empresa, para compartir impresoras, escaner, etc. y además cuentan con opción de salida a Internet. Se utilizan también para instalar programas internos dentro de la empresa, organización, etc.

Internetworks (Red de redes, Internet)

Internetworks no es nada más y nada menos que lo que nosotros conocemos como Internet, y es simplemente un montón de redes LAN y WAN conectadas entre si formando una especie de maraña.

Internet se crea mediante la interconexión de de redes de proveedores de servicios de Internet (ISP). Estas redes proporcionan acceso a Internet a millones de usuarios de todo el mundo, garantizando una comunicación efectiva y rápida. Pero tenemos que destacar que no esta centralizada ni regida por un único organismo, sino que se gestiona mediante muchos organismos de los cuales podemos citar a la ICANN (gestionar nombres de dominios y direcciones IP) y la IETF(encargada de de redactar los protocolos).

Una vez que sabemos ya los diferentes tipos de red tenemos que pasar a ver los distintos protocolos por los que se rigen dichas redes, pero esto ya lo veremos en el siguiente artículo sobre los protocoles de red.

Apple, ya cuenta con la especificación WiFi 802.11ac

Apple podría ser uno de los primeros fabricantes en abrazar la especificación para WiFi 802.11ac, actualmente en desarrollo.

La compañía de la manzana está trabajando para dotar a sus productos con esta nueva tecnología inalámbrica que sustituiría a la actual 802.11n. El estándar, al que se denomina popularmenrte “Gigabit Wifi” (por moverse en una franja de 5 Ghz de velocidad), pasaría a ser compatible con sus hot-spot AirPort Express, sus dispositivos de backup Time Capsule, la Apple TV, sus portátiles Mac y sus próximos dispositivos portátiles, según asegura la web Apple Insider.

En la práctica 802.11ac es mucho más rápido que el estándar 802.11n. Aunque este último fue ratificado con una velocidad de 600 Mbps en capa física, gran parte de los productos actuales cumplen el estándar con un máximo de 300 Mbps. El 802.11ac cuadriplicaría esta última marca, con 1,3 Gbps de velocidad, contando también con mayor alcance y mejor penetración entre paredes. Asimismo, también cuenta con el doble de antenas para crear más de un caudal de tráfico.

El mes pasado el fabricante de chips de comunicaciones Brocade afirmaba que el estándar empezaría a llegar al mercado este año, con dispositivos compatibles a la venta en el segundo semestre. Brocade es un partner clave de Apple y durante el CES mostró chips que ya soportaban este estándar. Aunque aún no se ha lanzado como estándar oficial, parece que los trabajos sobre la tecnología están yendo mucho más deprisa que los de sus predecesores.

Por el momento, la industria lo ve como una alternativa interesante a sistemas que no han acabado de cuajar, como el WiGig, con una velocidad superior (6gbps), pero menor alcance, o el Wireless HDMI, también más rápido pero demasiado caro.

InStar predice que esta tecnología comenzaría a penetrar rápidamente en el mercado, con 1 millón de productos compatibles a finales de este año y hasta 350 millones en 2015.
fuente.itespresso

Que es Multiseat o Multipuesto

Multiseat o multipuesto, también llamado multiterminal, multi-station, multihead, es la configuración especial de una computadora para poder soportar múltiples usuarios trabajando al mismo tiempo, cada uno con su propio monitor, teclado, ratón y, opcionalmente, con su propia tarjeta de sonido.

Introducción

Al usar la configuración estándar de un PC de escritorio (1 CPU + 1 pantalla + 1 teclado + 1 ratón), únicamente un usuario puede usar el PC completo a la vez, limitando la efectividad del sistema pues permanece desocupado la mayor parte del tiempo. Con la configuración multipuesto, varios usuarios pueden compartir los recursos de la misma CPU, usando de este modo un mayor porcentaje de su capacidad total y teniendo así un mejor aprovechamiento del sistema.

Esta funcionalidad se basa en gran medida en el creciente aumento de capacidad del hardware, tanto en procesadores como memorias, así como en la optimización del uso de los recursos por parte del sistema operativo, lo que permite aprovechar las capacidades multiusuario de sistemas GNU/Linux.

Por ejemplo, en el esquema tradicional, si alguien está usando únicamente un navegador de páginas web o escribiendo una carta en un procesador de textos, o trabajando con una hoja de cálculo, o con un programa de facturación, inventario, o contabilidad, el equipo se desaprovecha, al estar gran parte de la capacidad del sistema sin uso. Pero con la configuración multiterminal, otras personas podrán usar los recursos que de otra manera estarían ociosos.

Otra gran ventaja que posee la configuración multiterminal es el precio: no es necesario comprar diferentes placas base, microprocesadores, memorias RAM, discos duros, carcasas, reguladores de voltaje, y otros componentes por cada usuario. Únicamente se necesita comprar una CPU lo suficientemente potente y un lote pantalla-teclado-ratón por usuario, pues normalmente comprar un micro-ordenador rápido cuesta mucho menos que comprar varios más lentos.

Como inconveniente, si alguien o algún proceso está usando todo los recursos de la máquina (con juegos 3-D o computación intensiva), los otros usuarios no tendrán suficientes recursos para sus tareas y percibirán un sistema lento. Este problema puede eliminarse si los recursos de la CPU son los necesarios para el uso deseado y si el sistema operativo maneja dichos recursos de forma óptima.

Historia

En los años 1970, era muy corriente conectar múltiples terminales, e incluso terminales gráficos, a un solo computador central (mainframe), para así aprovechar las ventajas del tiempo compartido.

Sin embargo, la idea de usar la interface más contemporánea X11 para soportar múltiples usuarios apareció en 1999. Fue implementada por un brasileño llamado Miguel Freitas, usando el sistema operativo Linux y el sistema gráfico X11 (en ese momento mantenido por XFree86).La manera en que lo hizo Freitas fue un parche en el servidor X para ejecutar muchas instancias de X al mismo tiempo, de tal manera que cada una capturara eventos de ratón y teclado específicos y el contenido gráfico. Este método recibió el nombre del multiseat o multiterminal.

Después de Freitas, otras soluciones aparecieron en 2003, como las de Svetoslav Slavtchev, Aivils Stoss y James Simmons que trabajaron en el acercamiento a evdev and faketty, modificando el núcleo Linux y permitiendo a más de un usuario usar independientemente la misma máquina. En ese tiempo, el Linux Console Project también propuso una idea para usar múltiples consolas independientes y luego múltiples teclados y ratones independientes en un proyecto llamado “Backstreet Ruby”. Backstreet Ruby es un parche del kernel Linux. Fue portar hacia atrás al Linux-2.4 el árbol de kernel de Ruby. El objetivo de los desarrolladores de Linux Console fue mejorar y reorganizar la entrada, la consola, y los subsistemas del framebuffer en el kernel Linux, para que pudiesen trabajar independientemente uno del otro y permitir la operación multi-escritorio. La idea de Backstreet Ruby nunca fue terminada.

En 2005, el equipo de C3SL (Centro para la Computación Científica y el Software Libre), de la Universidad Federal de Paraná en Brasil, creó la solución basada con servidores X anidados, como Xnest y Xephyr. Con esta solución, cada servidor X anidado corre en cada pantalla de un servidor X anfitrión (por ejemplo Xorg) y una modificación en los servidores anidados les permite tener la exclusividad de cada conjunto de ratón y teclado. Estas soluciones eran las más usadas hoy en día debido a su estabilidad. En 2008, el grupo C3SL lanza el Multiseat Display Manager (MDM) para facilitar el proceso de la instalación y configuración de una caja multiseat. También en 2008, este grupo concibió un LiveCD para propósitos de pruebas.

Beneficios

Una configuración multiterminal tiene importantes ventajas, entre ellas:

  • Ahorro de espacio (solo se necesita un computador para varias personas).
  • Ahorro en costos en computadores y en consumo de energía (hasta un 80%).
  • Ahorro en licencias de software.
  • Mejor aprovechamiento de los recursos de computación.
  • Menor costos de mantenimiento.

Usos

Un computador multipuesto puede usarse en lugares donde haya varias personas trabajando cerca una de la otra, como sucede en laboratorios de computación, cibercafés, cubículos en una oficina, departamentos de atención al cliente, etc. Algunos de estos lugares son:

  • Escuelas.
  • Universidades.
  • Oficinas.
  • Cibercafés.
  • Bibliotecas.
  • Hospitales.
  • Hogares.

Requerimientos

Es importante tener un ordenador con una buena placa base, una CPU potente y con buena cantidad de memoria (512 MB o más). Esto dependerá del número de puestos que se deseen conectar.

Para que varios usuarios puedan trabajar en un ordenador se necesitan conectar a éste varios monitores, teclados y ratones. Por ejemplo, para formar una multiterminal de cuatro estaciones (para 4 usuarios), se requieren 4 monitores, 4 teclados y 4 ratones.

Cada monitor necesita ser conectado a una salida de video. Algunas tarjetas de video tienen múltiples salidas y soportan varios monitores. Adicionalmente, se pueden instalar en el ordenador varias de estas tarjetas de video, pero la mayoría de las máquinas modernas solo tienen un slot PCIe o AGP, así que, en general, estas tarjetas deberán ser PCI.

La mayoría de los ordenadores tienen solo un conector PS/2 para el teclado y otro para el ratón, así que para conectar varios teclados y ratones se debe hacer mediante conectores USB y HUBs USB.

En resumen:

  • Ordenador con una placa base, un CPU potente, y con una buena cantidad de memoria RAM.
  • Disco duro.
  • Varias placas de video PCI/AGP/PCI-E.
  • Varios teclados PS/2 / USB.
  • Varios ratones PS/2 / USB.
  • Opcionalmente, varias tarjetas de sonido.
  • Distribución de GNU/Linux favorita.
  • Xorg 6.9 o superior.

Implementación

Actualmente, hay varias formas de hacer multiterminales, y nuevas maneras están siendo constantemente desarrolladas. No existe la “mejor versión”, pero algunas versiones son mejores que otras.

GNU/Linux

En los sistemas operativos tipo Unix, como GNU/Linux, la interacción con el usuario se efectúa por el X Window System. Este sistema está basado en la arquitectura cliente-servidor, donde el cliente envía peticiones al servidor y recibe eventos de los dispositivos de entrada (teclados y ratones). Los servidores X tienen la definición de recurso, como puede ser un dispositivo de entrada o una ventana, que son dados a sus clientes. Estos recursos están asociados a una pantalla, la cual pertenece a un usuario. Por lo tanto, una multiterminal basada en GNU/Linux debe proveer una pantalla por cada usuario.

El servidor Xorg, la más reciente implementación del servidor X, no tiene soporte para múltiples pantallas. Este sigue el modelo del computador personal, el cual supone únicamente un usuario a la vez. Su entrada de datos esta implementada sobre la entrada estándar del Kernel, llamadas terminales virtuales (VT). Éstas reciben tal nombre debido a que simulan los viejos métodos de entrada de los antiguos Mainframes. El VT esta totalmente implementado usando software, simulando un TTY, un dispositivo que estaba conectado a través de puertos seriales. El núcleo Linux soporta múltiples terminales, pero únicamente pueden recibir eventos de un teclado a la vez. Si más de un teclado está conectado al ordenador, los eventos serán enviados al VT activo. Eso quita la posibilidad de ejecutar 2 o más servidores X, debido a que únicamente pueden activar a un servidor a la vez, incluso si éstos usan distintas tarjetas de video. Para resolver estos problemas, se han creado varias soluciones diferentes, mencionadas aquí en orden cronológico:

  • Multiterminal con ruby (aplicando un parche al kernel).
  • Multiterminal con evdev (un protocolo).
  • Multiterminal con faketty (un módulo del kernel).
  • Multiterminal con Xnest.
  • Multiterminal con Xephyr (una mejora al anterior).

La más usadas son la faketty y Xephyr. La solución con Xephyr es independiente del hardware, mientras que la faketty únicamente trabaja con un conjunto más restringido de tarjetas de vídeo como las de NVIDIA y SiS.

También podemos optar por la opción de utilizar terminales ZeroClient con MAX Madrid Linux 6.0 Multiseat. Esta distribución derivada de Ubuntu y dedicada al mundo educativo, tiene incluida dos paquetes: max-multiseat y max-multiseat-storage, que darán la funcionalidad multiseat con ZeroClients compatibles con este sistema de forma sencilla y sin complicadas configuraciones.

Windows

Para los sistemas operativos Windows 2000, XP y Vista, existen varios productos comerciales que permiten la implementación de configuraciones multiseat para dos o más puestos de trabajo. Dentro de estos productos se encuentran ASTER, BeTwin, y SoftXpand.

Línea de tiempo, evolución del software multiseat comercial

  • 1996, ThinSoft/BeTwin
  • 2002, Userful Corporation
  • 2004, Open-Sense Solutions (Groovix)
  • 2006, NComputing
  • 2009, FriendlySeats
  • 2010, Windows MultiPoint Server 2010 de Microsoft

Casos de éxito

Paraná Digital project

Uno de los éxitos de las multiterminales está pasando en Paraná Digital Project, la cual está creando un laboratorio en 2.000 escuelas públicas en el estado de Paraná, Brasil. Más de 1.5 millones de usuarios serán beneficiados cuando el proyecto termine, y habrán 40.000 terminales. Los laboratorios tendrán multiterminales de 4 cabezas corriendo Debian. El costo de todo el hardware es 50% menos que el precio normal, además no habrá costo alguno en software. Este proyecto lo desarrolla el Centro de Computação Científica e Software Livre (C3SL). El proyecto no ha concluido aún, pero los beneficios de las multiterminales son realmente grandes.

Investigación de la Universidad Estatal de Michigan en Tanzania

Desde 2008, los estudiantes de ingeniería eléctrica y de computación de la Universidad Estatal de Michigan han instalado sistemas multiterminales con acceso a Internet en tres escuelas en Mto wa Mbu, Tanzania. El propósito del proyecto es estudiar el impacto de tener sistemas de computadores con acceso a Internet en un sistema educativo que no puede permitirse otros recursos educativos tales como libros. Los sistemas de computadores corren Ubuntu 8.04 de 32 bits y utilizan el Multiseat Display Manager de fuente abierta creado por C3SL. La investigación eventualmente será usada en un esfuerzo para mostrar el impacto positivo, de tener sistemas computacionales eficientes en costo en las escuelas, a los oficiales de los gobiernos de los países del tercer mundo. El proyecto es patrocinado por George y Vickie Rock y Dow Chemical Company.

Instalaciones notables

  • En febrero de 2009, Userful anunció el despliegue de virtualización de escritorio más grande del mundo, con 356.800 puestos de escritorio en escuelas por todo Brasil. Este proyecto es una implementación comercial de multiseat basada Linux.
  • NComputing proporcionó 180.000 puestos para los estudiantes de educación primaria en la República de Macedonia.

MAX Madrid Linux. Institutos de Innovación Tecnológica de la Comunidad de Madrid

Desde comienzo del curso 2010-2011, la Comunidad de Madrid pone a disposición de los alumnos los nuevos Institutos de Innovación Tecnológica. En este caso, se pretende llegar al ratio de 1 ordenador por alumno, con ordenadores de sobremesa, pantallas de 19 pulgadas y mobiliario específico para convertir un aula convencional en una tecnológica polivalente. Para ello se ha utilizado el Sistema Operativo MAX Madrid Linux 6.0 con un paquete especialmente diseñado para hacer funcionar ZeroClients en Multiseat.

Al utilizar harware específico tipo ZeroClients, se desarrolla también la funcionalidad de sonido y usb privado para cada estación, de tal forma que el alumno tiene la sensación de disponer un equipo completo con todas sus funcionalidades.

fuente:wikipedia

El 80% de los internautas españoles tiene Facebook

Todo el mundo está en Facebook. De hecho, esta es la red social favorita de la mayoría de internautas de nuestro país. Según el nuevo Observatorio de redes sociales, el 78% de usuarios accede a la red social de Mark Zuckerberg de forma masiva, mientras que en Tuenti solo lo hace el 35%, al tratarse de un sitio de intercambio social mucho más frecuentado por adolescentes. ¿Y qué pasa con Twitter?, te preguntarás. Pues bien, a estas alturas la red social de los 140 caracteres todavía está en la cola, puesto que son muchos los usuarios que todavía no han entrado a formar parte de ella. Con un 14%, Twitter es la red social minoritaria, seguramente por lo complicado que resulta para muchos utilizarla.

A pesar de que existen otras muchas redes sociales, Facebook sigue estando a la cabeza como uno de los sitios más populares, con un crecimiento anual apabullante con respecto a las demás y sin precedente conocido. Por lo demás, Tuenti sigue a un buen ritmo, puesto que en 2008 ostentaba un 12% de la cuota, mientras que en 2010 ya ha logrado hacerse con el 35%, porcentaje que lo sitúa como segunda red social más importante. El caso de Twitter es muy distinto, puesto que la mayoría de usuarios son mucho más especializados y dedican sus 140 caracteres a información, más que a comunicarse socialmente con sus allegados.

El mismo estudio revela que 1 de cada 10 usuarios abandona Twitter porque no entiende su funcionamiento. Esto explica que la mitad del 14% de internautas que están conectados a esta red social no la utilizan, pasando a engrosar una lista de usuarios fantasma. En Facebook las tasas de abandono son menores, puesto que solo el 12% de las cuentas dadas de alta en permanecen inactivas. Le sigue el servicio Messenger (24%), YouTube (30%), Tuenti (32%) o Twitter, mientras que redes como MySpace o Hi5 se encuentran en el más absoluto abandono, con porcentajes de hasta el 71% y 88% de cuentas que no se utilizan, respectivamente.

El último estudio que apareció con razón de la celebración del Día de Internet, evidenció de nuevo que los usuarios cada vez están más conectados a la Red, pero desde sus teléfonos móviles. Y es que todo el mundo quiere estar al día de la actividad que se fragua en sus redes sociales favoritas desde cualquier parte, una de las funciones más interesantes que los teléfonos inteligentes nos permiten llevar a cabo.

fuente tuexperto

Características de las redes P2P

* Escalabilidad. Las redes P2P tienen un alcance mundial con cientos de millones de usuarios potenciales. En general, lo deseable es que cuantos más nodos estén conectados a una red P2P, mejor será su funcionamiento. Así, cuando los nodos llegan y comparten sus propios recursos, los recursos totales del sistema aumentan. Esto es diferente en una arquitectura del modo servidor-cliente con un sistema fijo de servidores, en los cuales la adición de clientes podría significar una transferencia de datos más lenta para todos los usuarios. Algunos autores advierten que, si proliferan mucho este tipo de redes, cliente-servidor, podrían llegar a su fin, ya que a cada una de estas redes se conectarán muy pocos usuarios.
* Robustez. La naturaleza distribuida de las redes peer-to-peer también incrementa la robustez en caso de haber fallos en la réplica excesiva de los datos hacia múltiples destinos, y —-en sistemas P2P puros—- permitiendo a los peers encontrar la información sin hacer peticiones a ningún servidor centralizado de indexado. En el último caso, no hay ningún punto singular de falla en el sistema.
* Descentralización. Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red. En realidad, algunas redes comúnmente llamadas P2P no cumplen esta característica, como Napster, eDonkey o BitTorrent.
* Distribución de costes entre los usuarios. Se comparten o donan recursos a cambio de recursos. Según la aplicación de la red, los recursos pueden ser archivos, ancho de banda, ciclos de proceso o almacenamiento de disco.
* Anonimato. Es deseable que en estas redes quede anónimo el autor de un contenido, el editor, el lector, el servidor que lo alberga y la petición para encontrarlo, siempre que así lo necesiten los usuarios. Muchas veces el derecho al anonimato y los derechos de autor son incompatibles entre sí, y la industria propone mecanismos como el DRM para limitar ambos.
* Seguridad. Es una de las características deseables de las redes P2P menos implementada. Los objetivos de un P2P seguro serían identificar y evitar los nodos maliciosos, evitar el contenido infectado, evitar el espionaje de las comunicaciones entre nodos, creación de grupos seguros de nodos dentro de la red, protección de los recursos de la red… La mayor parte de los nodos aún están bajo investigación, pero los mecanismos más prometedores son: cifrado multiclave, cajas de arena, gestión de derechos de autor (la industria define qué puede hacer el usuario; por ejemplo, la segunda vez que se oye la canción se apaga), reputación (permitir acceso sólo a los conocidos), comunicaciones seguras, comentarios sobre los ficheros, etc.

Internet Relay Chat

IRC (Internet Relay Chat) es un protocolo de comunicación en tiempo real basado en texto, que permite debates entre dos o más personas. Se diferencia de la mensajería instantánea en que los usuarios no deben acceder a establecer la comunicación de antemano, de tal forma que todos los usuarios que se encuentran en un canal pueden comunicarse entre sí, aunque no hayan tenido ningún contacto anterior. Las conversaciones se desarrollan en los llamados canales de IRC, designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo es utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo.

Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC daemon o servidor de IRC) que gestiona los canales y las conversaciones murales.

Historia

IRC fue creado por Jarkko Oikarinen (alias «WiZ») en agosto de 1988 con el motivo de reemplazar al programa MUT (talk multiusuario) en un BBS llamado OuluBox en Finlandia. Oikarinen se inspiró en el Bitnet Relay Chat el cual operaba en la red Bitnet.

Fue utilizado en el intento de golpe de estado en la Unión Soviética de 1991 para informar a través de un periodo de censura en los medios y por los kuwaitíes durante la Primera Guerra del Golfo, eventos tras los cuales el IRC ganó popularidad.

Durante la primera mitad de la década de los 2000 la mayoría de redes vivieron un rápido incremento de usuarios, correspondiente con la popularización de Internet y especialmente de las redes de Chat. Desde entonces, la mayoría de redes ha sufrido un estancamiento o un retroceso en el número de usuarios, a pesar de la mayor implantación de Internet. La caída coincide con la popularización de otro tipo de redes, como la mensajería instantánea o las redes sociales..

Glosario

* Owner: en algunas redes o servidores suelen tener un ~ antes del nick. Se les denomina dueños del canal y tienen el poder de dar los rangos automáticamente.
* Cliente: nombre genérico dado al software con el cual nos conectamos a las diferentes redes.
* Redes: conjunto de diferentes servidores a los que se pueden conectar los usuarios para acceder a un mismo contenido. Ejemplos de redes son DALnet, Undernet, Quakenet, EFnet, Freenode o IRC-Hispano.
* Nickname o Nick: pseudónimo con el que se nos conocerá.
* Idle: tiempo sin hablar de un usuario, o sea inactivo.
* Away: ausencia, normalmente va acompañado de un motivo.
* Bot: (robot). Es un cliente conectado a un servidor que responde automáticamente a órdenes o a ciertas acciones, por lo regular no hay un humano detrás de ese cliente.
* IRCop: (IRC Operator). Persona encargada de gestionar y mantener la red.
* HostSetter: es un usuario con privilegios para asignar, remover y cambiar host virtuales (vhost) en redes con servicio del tipo Anope.
* Operador: es un usuario con privilegios de administrador en un canal en específico. Suele tener una @ antes del nick.
* Half-Op o medio operador: Son usuarios con privilegios para administrar un canal, pero menos que los operadores. Sólo existen en algunas redes y tienen un % como símbolo antes del nick.
* Helper: Persona que sirve de ayudar a los demás con comandos, generalmente personas nuevas en IRC
* Lag: tiempo que tarda en llegar un mensaje que se envía a otro usuario, si es más de 30 s de lag es recomendable tratar de conectar otro servidor.
* Netsplit: sucede cuando un servidor pierde el enlace de comunicación con el resto de la red.
* MOTD: (Message of The Day). Es el mensaje del día de un servidor, por lo regular estos mensajes incluyen las reglas e información del servidor que estamos utilizando.
* Flood: consiste en enviar gran cantidad de datos a un usuario o canal, normalmente con la finalidad de molestar o desconectar a otros usuarios.
* Clon: un Clon es una conexión al IRC de un usuario usando una conexión ya abierta, con la misma IP.
* K-Line: es la prohibición de entrar por un determinado servidor de IRC, normalmente por saturación o por reconectar demasido rápido, aunque en algunas redes existan k-lines diferentes por acciones inapropiadas, la solución a un k-line es entrar por otro servidor del IRC.
* Nuke: ataque utilizando envíos de “paquetes” para provocar la desconexión, la mejor defensa es instalarse un firewall.
* PING?PONG!: esto aparece en nuestra ventana del status, y es la comprobación que hace el servidor para ver si nuestra conexión está activa y si llevamos algún tiempo sin enviar ningún dato, y si nuestro ordenador no contesta, cortará la comunicación. También un PING escrito así /ctcp nick ping sirve para ver el lag del nick que queramos.
* TakeOver: es la apoderación de un canal por usuarios que no tenían privilegios anteriorimente, por ejemplo aprovechando un split.
* Banear: impide la entrada de un usuario en un #canal. Si el usuario se encontraba en él no podrá hablar, ni volver una vez salga o sea expulsado. Sólo puede ser realizado por alguien con @ o %.

Clientes

Después de la primera implementación de Jarkko Oikarinende, han surgido una gran cantidad de implementaciones distintas de clientes IRC, tanto como programas independientes, como mIRC, Irssi, Konversation o X-Chat de los más populares, como integradas dentro de otros programas, como Chatzilla.

Se destaca también la utilización de distintos scripts, los cuales tienen como finalidad tomar un cliente existente de IRC como plataforma para el desarrollo de distintos scripts los cuales añaden funcionalidades extra y facilitan la operación de diversos clientes IRC. En este caso se destacan Looksharp, NavIRC, IRCap, Xscript, entre otros.

Que es Multicast

Multidifusión (inglés multicast) es el envío de la información en una red a múltiples destinos simultáneamente, usando la estrategia más eficiente para el envío de los mensajes sobre cada enlace de la red sólo una vez y creando copias cuando los enlaces en los destinos se dividen. En oposición a multicast, los envíos de un punto a otro en una red se denominan unidifusión (inglés unicast), y los envíos a todos los nodos en una red se denominan difusión amplia (inglés broadcast)

Antes del envío de la información, deben establecerse una serie de parámetros. Para poder recibirla, es necesario establecer lo que se denomina “grupo multicast”. Ese grupo multicast tiene asociado una dirección de internet. La versión actual del protocolo de internet, conocida como IPv4, reserva las direcciones de tipo D para la multidifusión. Las direcciones IP tienen 32 bits, y las de tipo D son aquellas en las cuales los 4 bits más significativos son ‘1110’ (224.0.0.0 a 239.255.255.255)

Orígenes de las IP

Durante la primera década de operación de la Internet basada en TCP/IP, a fines de los 80s, se hizo aparente que se necesitaba desarrollar métodos para conservar el espacio de direcciones. A principios de los 90s, incluso después de la introducción del rediseño de redes sin clase, se hizo claro que no sería suficiente para prevenir el agotamiento de las direcciones IPv4 y que se necesitaban cambios adicionales. A comienzos de 1992, circulaban varias propuestas de sistemas y a finales de 1992, la IETF anunció el llamado para white papers (RFC 1550) y la creación de los grupos de trabajo de “IP de próxima generación” (“IP Next Generation”) o (IPng).

IPng fue propuesto por el Internet Engineering Task Force (IETF) el 25 de julio de 1994, con la formación de varios grupos de trabajo IPng. Hasta 1996, se publicaron varios RFCs definiendo IPv6, empezando con el RFC 2460.

La discusión técnica, el desarrollo e introducción de IPv6 no fue sin controversia. Incluso el diseño ha sido criticado por la falta de interoperabilidad con IPv4 y otros aspectos, por ejemplo por el científico de la computación D. J. Bernstein[cita requerida].

Incidentalmente, IPng (Ping Pong) no pudo usar la versión número 5 (IPv5) como sucesor de IPv4, ya que ésta había sido asignada a un protocolo experimental orientado al flujo de streaming que intentaba soportar voz, video y audio.

Se espera ampliamente que IPv6 sea soportado en conjunto con IPv4 en el futuro cercano. Los nodos solo-IPv4 no son capaces de comunicarse directamente con los nodos IPv6, y necesitarán ayuda de un intermediario; vea Mecanismos de Transición más adelante.