This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

martes, 5 de noviembre de 2013

Fin Ciclo Informático

Fin Ciclo Informático







Hola, muchas gracias a los que siguieron mi blog desde sus principios, fueron miles de miles de visitas de toda partes del mundo, pero sobre todo de España, gracias por escribirme a mi correo y decirme que les fue de mucha utilidad mis publicaciones, lamentablemente ingreso a otro nivel y ya no podre publicarles contenido, gracias por sus visitas en estos dos años y que Dios los bendiga.

Atte: Jonathan Hernandez

domingo, 11 de agosto de 2013

Hardware para Redes Informaticas

Hardware para Redes Informáticas



Las redes de comunicación son uno de los sub campos dentro de la revolución de Internet que ha tenido un hiperdesarrollo, y tiende a seguir asombrando con las posibilidades que potencialmente permiten, lo que augura para el futuro la aparición de nuevo hardware y nuevos protocolos que la mente de muchos usuarios comunes no llegan a visualizar.

Pero en la actualidad ya son muy numerosos los dispositivos y los productos que se utilizan para mejorar la transferencia de datos entre los que se deben mencionar los router o encaminadores, los bridge o puente, los brouter, los hub o concentrador, los repetidores, los gateway, los modems, los nics, los servidores, los switchs o conmutadores.



El Router o Encaminador es un dispositivo que conecta dos redes locales y es el responsable de controlar el tráfico entre ellas y de clasificarlo. En sistemas complejos suele ser un filtro de seguridad para prevenir daños en la red local. Es posible conectar varias redes locales de forma que los ordenadores o nodos de cada una de ellas tenga acceso a todos los demás.

Estos dispositivos operan en el tercer nivel de red ( Capa de Red ) del modelo OSI, y enlazan los tres primeros niveles de este modelo, o sea el Nivel Fisico, el Nivel de Enlace de Datos y el Nivel de Red. Los routers redirigen paquetes de acuerdo al método entregado por los niveles mas altos. Actualmente, son capaces de manejar un protocolo o varios protocolos a la vez.

Son también llamados sistemas intermediarios. Originalmente, fueron usados para interconectar múltiples redes corriendo el mismo protocolo de alto nivel ( por ejemplo; TCP/IP) con múltiples caminos de transmisión origen/destino.




Los modems son otros dispositivos fundamentales en las redes y permiten a las computadoras comunicarse entre sí a través de líneas telefónicas, esta comunicación se realiza a través de la modulación y demodulación de señales electrónicas que pueden ser procesadas por computadoras, las señales analógicas se convierten en digitales y viceversa. Los modems pueden ser externos o internos dependiendo de su ubicación física en la red.

Los Bridges o Puentes son otra unidad funcional que interconecta dos redes de área local que utilizan el mismo protocolo de control de enlace lógico pero distintos protocolos de control de acceso al medio. Operan en el nivel 2 de OSI ( Capa de Enlace de Datos). Estos equipos unen dos redes actuando sobre los protocolos de bajo nivel. Solo el tráfico de una red que va dirigido a la otra atraviesa el dispositivo. Esto permite a los administradores dividir las redes en segmentos lógicos, descargando de tráfico las interconexiones. Los bridges producen las señales, con lo cual no se transmite ruido a través de ellos.


Hardware de red normalmente se refiere a los equipos que facilitan el uso de una red informática. Típicamente, esto incluye enrutadores, switches, hubs, gateways, puntos de acceso, tarjetas de interfaz de red, cables de redes, puentes de red, módems, adaptadores RDSI, firewalls y otros hardwares relacionados.1
El tipo más común de hardware de red hoy en día són los adaptadores Ethernet, ayudados en gran medida por su inclusión de serie en la mayoría de los sistemas informáticos modernos. La red inalámbrica se ha convertido cada vez más popular, sin embargo, especialmente para los dispositivos portátiles y de mano.2
Otros materiales que prevalecen en redes de computadoras són los equipos de centros de datos (tales como servidores de archivos, servidores de base de datos y las áreas de almacenamiento), servicios de red (tales como DNS, DHCP, correo electrónico, etc), así como otros dispositivos de red específicos, tales como entrega de contenido.3
Otros dispositivos diversos que pueden ser considerados hardware de red incluyen teléfonos móviles, PDAs y incluso cafeteras modernas.4 Mientras que la tecnología crece y redes basadas en IP están integradas en la infraestructura de construcción y en electrodomésticos, hardware de red se convierte en una expresión ambigüa debido al número creciente de terminales con capacidad de red.














sábado, 10 de agosto de 2013

Link de presentación de tipos de redes informáticas en Prezi



http://prezi.com/5cwwg8kojyiu/?utm_campaign=share&utm_medium=copy&rc=ex0share
Presentación en Prezi



jueves, 25 de julio de 2013

Protocolos de red informática

Protocolos de red informática



Las redes inalámbricas son aquellas que posibilitan la interconexión de dos o más equipos entre sí sin que intervengan cables, constituyendo así un eficaz medio para la transmisión de cualquier tipo de datos. Las redes inalámbricas se basan en un enlace que utiliza ondas electromagnéticas en lugar de cableado estándar.

Dependiendo del tamaño de la red o de la cobertura que proporciona, se pueden clasificar en los diferentes tipos:

WPAN (Wireless Personal Area Network)
Una red inalámbrica de área personal, incluye redes inalámbricas de corto alcance que abarcan un área de algunas decenas de metros. Este tipo de red se usa generalmente para conectar dispositivos periféricos. Destacan principalmente tecnologías como Bluetooth (IEEE 802.15.1), Zigbee (IEEE 802.15.4) o HomeRF.

WLAN (Wireless Local Area Network)
En las redes de área local, se pueden encontrar tecnologías inalámbricas basadas en HiperLAN como HiperLAN2 o tecnologías basadas en WiFi, que siguen el estándar IEEE 802.11x.

WMAN (Wireless Metropolitan Area Network)
Las WMAN se basan en el estándar IEEE 802.16x o WiMax, así como en LMDS (Local Multipoint Distribution Service).

WWAN (Wireless Wide Area Network)
Las redes inalámbricas de área extensa tienen el alcance más amplio de todas las redes inalámbricas. En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y la tecnología digital para móviles GPRS (General Packet Radio Service).

El comité IEEE 802.11 es el encargado de desarrollar los estándares para las redes de área local inalámbricas. Este estándar, se basa en el mismo marco de estándares que Ethernet, garantizando un excelente nivel de interoperatividad y asegurando una implantación sencilla de las funciones y dispositivos de interconexión Ethernet/WLAN.

En los últimos años las redes de área local inalámbricas han ganando mucha popularidad, ya que permiten a sus usuarios acceder a información y recursos en tiempo real sin necesidad de estar físicamente conectados a un determinado lugar, incrementando en productividad y eficiencia.

La conexión de redes inalámbricas se restringe a las dos primeras capas del modelo TCP/IP, es decir, el nivel físico y el nivel de enlace, los cuales se explicaran a detalle a continuación. Si además, los elementos de la red soportan enrutamiento o enmascaramiento NAT.

Los tres puntos siguientes, afectan a la capa física.

Número de canal
El número de canal identifica el rango de frecuencias de trabajo. Para redes IEEE 802.11b se usan los canales 1, 7 y 13 en Europa para asegurar suficiente separación de frecuencias y evitar conflictos. Para redes 802.11a no hay riesgo de que los canales se solapen, sólo hay que asegurarse que los nodos cercanos estén operando en canales diferentes. Algunos dispositivos definen automáticamente el canal basado en la frecuencia ociosa escaneando el espectro.

A continuación se muestra el espectro de frecuencias del estándar 802.11b, donde se pueden apreciar los solapamientos entre frecuencias.



Potencia de transmisión
A mayor potencia de transmisión, el punto de acceso tendrá un mayor rango de cobertura, sin embargo, debe evitarse usar más potencia de la necesaria pues aumenta la probabilidad de interferir con otros usuarios. Para muchos países el máximo límite legal es 100 mW, mientras en otros el límite es de 1 W.

Velocidad de transmisión
La tasa de transmisión empleada dependerá del estándar del dispositivo, así para 801.11b el límite superior estará en los 11 Mbps, y para 802.11a y 802.11b en 54 Mbps. En la mayoría de dispositivos, es seleccionable una tasa inferior al límite del estándar.

Los siguientes tres puntos siguientes afectan a la capa de enlace.

Modos de operación o funcionamiento
El estándar 802.11 define dos modos operativos, el modo de infraestructura en el que los clientes de tecnología inalámbrica se conectan a un punto de acceso y el modo ad-hoc en el que los clientes se conectan entre sí sin ningún punto de acceso.

SSID (Service Set IDentifier)
El SSID es el nombre de la LAN inalámbrica. Se trata de una cadena de texto sensible a mayúsculas y minúsculas, que acepta hasta 32 caracteres alfanuméricos y es usada durante el proceso de asociación a una red inalámbrica.

El SSID de un dispositivo se difunde por defecto en las tramas beacon para anunciar su presencia. Esto significa que cualquiera con un adaptador inalámbrico puede ver su red en términos de su SSID. Muchos dispositivos ofrecen la posibilidad de desactivar la difusión del SSID para ocultar la red al público. Este hecho puede mejorar la seguridad de la red inalámbrica.

Control de acceso al medio
Un dispositivo envía tramas beacon periódicamente para difundir su presencia y la información de la red a las estaciones clientes en su radio de cobertura. Las estaciones pueden obtener lista de los dispositivos disponibles buscando estas tramas continuamente en todos canales 802.11. El intervalo de beacon, es la cantidad de tiempo entre la transmisión de tramas beacon de un punto de acceso, su valor por defecto es generalmente 10 ms.

RTS/CTS (Request-To-Send / Clear-To-Send) es el método usado por las redes inalámbricas del estándar IEEE 802.11 acceder al medio y reducir colisiones. RTS/CTS introduce mecanismos para evitar colisiones mediante el método CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance), lo que hace al método de acceso más robusto; pero incrementa el tráfico en la red. Cuando un nodo desea enviar datos, envía una trama RTS, el punto de acceso (AP) la recibe y responde con una trama CTS si el medio está libre. Cuando el nodo recibe el CTS, este comienza a enviar sus datos. Todos los nodos deben ser capaces de escuchar al punto de acceso, la trama CTS alcanzará a todos los nodos conectados a él. La trama CTS incluye un valor del tiempo que los otros nodos deberán esperar para enviar otras tramas RTS.

En esta capa además se llevan a cabo las técnicas de filtrado MAC de acceso al medio, cifrado WEP o WPA y restricciones de acceso por autentificación que se verán en el punto de seguridad.

Protocolo Descripción
802.11 Primer estándar que permite un ancho de banda de 1 a 2 Mbps. Trabaja a 2,4 GHz
802.11a Llamado también WiFi5. Tasa de 54 Mbps. Trabaja entorno a 5 GHz, frecuencia menos saturada que 2,4.
802.11b Conocido como WiFi. El más utilizado actualmente. Las mismas interferencias que para 802.11 ya que trabaja a 2,4 GHz. Tasa de 11 Mbps.
802.11c Es una versión modificada del estándar 802.1d, que permite combinar el 802.1d con dispositivos compatibles 802.11 en el nivel de enlace de datos.
802.11d Este estándar es un complemento del estándar 802.11 que está pensado para permitir el uso internacional de las redes 802.11 locales. Permite que distintos dispositivos intercambien información en rangos de frecuencia según lo que se permite en el país de origen del dispositivo.
802.11e Define los requisitos de ancho de banda y al retardo de transmisión para permitir mejores transmisiones de audio y vídeo. Está destinado a mejorar la calidad del servicio en el nivel de la capa de enlace de datos.
802.11f Su objetivo es lograr la interoperabilidad de puntos de acceso (AP) dentro de una red WLAN mutiproveedor. El estándar define el registro de puntos de acceso dentro de una red y el intercambio de información entre ellos cuando un usuario se traslada desde un punto de acceso a otro.
802.11g Ofrece un ancho de banda de 54 Mbps en el rango de frecuencia de 2,4 GHz. Es compatible con el estándar 802.11b, lo que significa que los dispositivos que admiten el estándar 802.11g también pueden funcionar con el 802.11b.
802.11h El objetivo es que 802.11 cumpla los reglamentos europeos para redes WLAN a 5 GHz. Los reglamentos europeos para la banda de 5 GHz requieren que los productos tengan control de la potencia de transmisión y selección de frecuencia dinámica.
802.11i Aprobada en Julio 2004, se implementa en WPA2. Destinado a mejorar la seguridad en la transferencia de datos (al administrar y distribuir claves, y al implementar el cifrado y la autenticación). Este estándar se basa en el protocolo de encriptación AES.
802.11n Se basa en la tecnología MIMO. Trabajará en la frecuencia de 2.4 y 5 GHz. Soportará tasas superiores a los 100Mbps.
802.11s Redes Mesh o malladas.


Profundizando un poco más, a continuación se muestran las características más importantes de los principales protocolos.



Protocolo
Fecha de Aprobación
Frecuencia (GHz)
Modulación
Throughput (Mbps)
Rango (Indoor)
Real
Teórico
802.11a
1999
5.15-5.355.47-5.7255.725-5.825
OFDM con BPSK, SPSK y 16/64 QAM
25
54
~50
802.11b
1999
2.4-2.5
CCK y DSSS(5 y 11 Mbps), DQPSK (2 Mbps), DBPSK (1Mbps)
6.5
11
~100
802.11g
2003
2.4-2.5
DSSS, DQPSK, DBPSK.
OFDM con BPSK, SPSK y 16/64 QAM
25
54
~100


Los dispositivos IEEE 802.11a transmiten a 5 GHz dando cobertura a células de RF más pequeñas con un coste energético superior, visto de otra manera, se necesitaran más puntos de acceso 802.11a para cubrir la misma zona que con b. Por contra, el adoptar la banda de frecuencia de 5 GHz y utilizar la modulación OFDM hacen que 802.11a goce de dos notables ventajas respecto al 802.11b, aumenta la tasa de transmisión de 11 Mbps a 54 Mbps y aumenta el número de canales sin solapamiento, pudiendo así admitir un mayor número de usuarios. Está tecnología presenta el inconveniente de no ser compatible con 802.11b.

El 802.11g opera en la misma banda de frecuencia que el 802.11b de 2.4 GHz y con los mismos tipos de modulación DSSS a velocidades de hasta 11 Mbps, mientras que a velocidades superiores utiliza tipos de modulación OFDM más eficientes. Es un estándar compatible con los equipos 802.11b ya existentes.

En comparación con el estándar IEEE 802.11a, el 802.11g tiene un ancho de banda utilizable más bajo, lo que implica un menor número de usuarios. Aunque las modulaciones OFDM permiten una velocidad más alta, el ancho de banda disponible total en la banda de frecuencia de 2,4 GHz no varía. El motivo es que el IEEE 802.11g todavía está restringido a tres canales en la banda de 2,4 GHz.

Modos de funcionamiento
El estándar 802.11 define dos modos operativos, el modo de infraestructura en el que los clientes de tecnología inalámbrica se conectan a un punto de acceso y el modo ad-hoc en el que los clientes se conectan entre sí sin ningún punto de acceso

- Modo ad hoc
En redes IEEE 802.11, el modo ad hoc se denota como Conjunto de Servicios Básicos Independientes (IBSS, Independent Basic Service Set). El modo ad hoc, también conocido como punto a punto, es un método para que clientes inalámbricos puedan establecer una comunicación directa entre sí, no siendo necesario involucrar un punto de acceso central. Todos los nodos de una red ad hoc se pueden comunicar directamente con otros clientes. Cada cliente inalámbrico en una red ad hoc debería configurar su adaptador inalámbrico en modo ad hoc y usar los mismos SSID y número de canal de la red. Este tipo de redes normalmente está formado por un pequeño grupo de dispositivos dispuestos cerca unos de otros, siendo su rendimiento menor a medida que el número de nodos crece.

Configuración
Nodo 1
Nodo 2
Modo
Ad hoc
SSID
El mismo
Canal
El mismo
IP
IPA (normalmente fija)
IPB (normalmente fija)
En una red ad hoc, el rango del BSS está determinado por el rango de cada estación, por lo que si dos estaciones de la red están fuera de rango la una de la otra, no podrán comunicarse aún cuando puedan ver otras estaciones. A diferencia del modo infraestructura, el modo ad hoc no tiene un sistema de distribución que pueda enviar tramas de datos desde una estación a la otra.

- Modo infraestructura
En el modo de infraestructura (BSS, Basic Service Set), cada estación se conecta a un punto de acceso a través de un enlace inalámbrico. La configuración formada por el punto de acceso y las estaciones ubicadas dentro del área de cobertura se llama conjunto de servicio básico o BSS. Estos forman una célula y se identifica a través de un BSSID, que corresponde con la dirección MAC del punto de acceso.

Es posible vincular varios puntos de acceso juntos para formar un conjunto de servicio extendido o ESS (Extended Service Set). El sistema de distribución también puede ser una red conectada, un cable entre dos puntos de acceso o incluso una red inalámbrica. El ESSID, a menudo es abreviado por SSID, que no es más que el nombre de la red. A continuación se muestra la configuración típica del modo infraestructura.

Configuración
Punto de Acceso
Usuarios
Modo
Infraestructura
SSID
Debe definir un SSID
Conectar al SSID
Canal
Debe definir canal
Descubrir el canal
IP
Normalmente servidor DHCP
Asignado por DHCP
La limitación de este modo, es en cuanto al número máximo de clientes inalámbricos que se pueden conectar manteniendo una determinada calidad de servicio. Un AP (Access Point) proporciona normalmente un alcance de entre 20 m a 100 m en interiores. En exteriores, los alcances son muy superiores, pudiéndose alcanzar distancias superiores a 200 m dependiendo de la ganancia de la antena y la potencia emitida. Los clientes inalámbricos pueden acceder dentro del rango de cobertura que proporcione el AP.

Los puntos de acceso se comunican entre sí con el fin de intercambiar información sobre las estaciones, así cuando un usuario se mueve desde un BSS a otro dentro de un ESS, el adaptador inalámbrico de su equipo puede cambiarse de punto de acceso dependiendo la calidad de la señal que reciba o la saturación del nodo, permitiendo al cliente inalámbrico moverse de forma transparente de un punto de acceso a otro. Esta característica es conocida como itinerancia.

Normalmente, en una configuración típica como se muestra en la Figura 8, uno de los AP se conecta a una red cableada con acceso a Internet, por el que fluirá todo el tráfico que requiera una estación o red no alcanzable por los AP.

Seguridad.
Este punto es fundamental, ya que las redes inalámbricas usan ondas de radio y son más susceptibles de ser interceptadas, es decir, no brindan la protección y privacidad de un cable, por lo que se hace casi indispensable proveer de mecanismos de seguridad a nivel de enlace que garanticen la integridad y confiabilidad de los datos, en definitiva se busca asegurar que la información transmitida entre los puntos de acceso y los clientes no sea revelada a personas no autorizadas. En este punto, también se tratarán los mecanismos de autenticación y control de acceso, como medida de seguridad diseñada para establecer la validez de una transmisión.

A continuación se explica brevemente en que consisten los principales mecanismos que intentan o ayudan a garantizar la privacidad, integridad y confidencialidad de la transmisión, ellos son WEP, WPA, filtrado MAC y 802.1x [WEB09].

Mecanismo de seguridad WEP (Wired Equivalent Privacy) obsoleto
La confidencialidad en redes inalámbricas ha sido asociada tradicionalmente con el término WEP, que forma parte del estándar IEEE 802.11 original, de 1999. Su propósito fue brindar un nivel de seguridad comparable al de las redes alambradas tradicionales.

Se trata de un mecanismo basado en el algoritmo de cifrado RC4, y que utiliza el algoritmo de chequeo de integridad CRC (Chequeo de Redundancia Cíclica). Un mal diseño del protocolo provoco que al poco tiempo de ser publicado quedara obsoleto. Actualmente existen varios ataques y programas para quebrar el WEP tales como Airsnort, Wepcrack, Kismac o Aircrack. Algunos de los ataques se basan en la limitación numérica de los vectores de inicialización del algoritmo de cifrado RC4, o la presencia de la llamada “debilidad IV” en un datagrama. Este mecanismo no es recomendado para garantizar la seguridad de una red.

WPA y WPA2
En 2003 se propone el Acceso Protegido a redes WiFi o WPA y luego queda certificado como parte del estándar IEEE 802.11i, con el nombre de WPA2 en 2004.

WPA y WPA2 pueden trabajar con y sin un servidor de distribución de llaves. Si no se usa un servidor de llaves, todas las estaciones de la red usan una llave de tipo PSK (Pre-Shared-Key), en caso contrario se usa habitualmente un servidor IEEE 802.1x.

La versión certificada de WPA incluye dos cambios principales que aumentan considerablemente la seguridad, se reemplaza el algoritmo Michael por un código de autenticación conocido como el protocolo CCMP (Counter-Mode/CBC-Mac) considerado criptográficamente seguro y se reemplaza el algoritmo RC4 por el AES (Advanced Encryption Standard) o Rijndael. WPA2 bien configurado, es actualmente el mecanismo más seguro en que se puede confiar.

Filtrado MAC
Es un mecanismo que realizan los puntos de acceso que permite únicamente acceder a la red a aquellos dispositivos cuya dirección física MAC sea una de las especificadas. El mecanismo se puede utilizar como control adicional; pero es fácilmente vulnerable aplicando un clonado de la MAC a suplantar.

Detener la difusión de la SSID como medida de seguridad
Se pueden configurar los puntos de accesos para que no difundan periódicamente las llamadas Tramas Baliza o Beacon Frames, con la información del SSID. Evitar esta publicación implica que los clientes de la red inalámbrica necesitan saber de manera previa que SSID deben asociar con un punto de acceso; pero no impedirá que una persona interesada encuentre la SSID de la red mediante captura de tráfico. Este sistema debe considerarse tan solo como una precaución adicional más que una medida de seguridad.

Protocolo 802.11x
Este protocolo ofrece un marco para autentificar y controlar el acceso a los puntos de accesos. Sirve como soporte para implementaciones de seguridad sobre servidores de autentificación. El funcionamiento se puede ver en la Figura 9 y es básicamente el siguiente, el cliente envía una petición al servidor de autentificación a través del AP, quien comprueba el certificado o el nombre de usuario y contraseña utilizando esquemas de autentificación como EAP encargados de la negociación. Si es aceptado, el servidor autorizará el acceso al sistema y el AP permite el acceso asignando los recursos de red.



Topologia de red

Topologia de red


La topología de red se define como una familia de comunicación usada por los computadores que conforman una red para intercambiar datos. El concepto de red puede definirse como "conjunto de nodos interconectados". Un nodo es el punto en el que una curva se intercepta a sí misma. Lo que un nodo es concretamente, depende del tipo de redes a que nos refiramos.

Redes informáticas por su relación funcional

Redes informáticas por su relación funcional

Cliente-servidor es una arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta.
Peer-to-peer es aquella red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí.


Redes de informática por medios no guiados

Redes de informática por medios no guiados


No guiados:

• Infrarrojos: poseen las mismas técnicas que las empleadas por la fibra óptica pero son por el aire. Son una excelente opción para las distancias cortas, hasta los 2km generalmente.
• Microondas: las emisiones pueden ser de forma analógica o digitales pero han de estar en la línea visible.
• Satélite: sus ventajas son la libertad geográfica, su alta velocidad…. pero sus desventajas tiene como gran problema el retardo de las transmisiones debido a tener que viajar grandes distancias.
• Ondas cortas: también llamadas radio de alta frecuencia, su ventaja es que se puede transmitir a grandes distancias con poca potencia y su desventaja es que son menos fiables que otras ondas.
• Ondas de luz: son las ondas que utilizan la fibra óptica para transmitir por el vidrio.

CONECTORES:

• RJ11/RJ45: el RJ11 es el utilizado para las conexiones telefónicas y solo dos de sus cuatros cables transmiten, además es más pequeño que el RJ45 el cual posee 8 cables. Son los más usados. Conector para el cable UTP.
• BNC: conector para el cable coaxial. Hay varias versiones. En T, el terminador… variara según el cable coaxial que tengamos.
• DB9/DB25: hoy en día prácticamente no se usan más que para conectar impresoras y ratones. Pueden ser en serie o en paralelo.

Red de fibra optica

Red de fibra optica


Las redes de fibra óptica se emplean cada vez más en telecomunicación, debido a que las ondas de luz tienen una frecuencia alta y la capacidad de una señal para transportar información aumenta con la frecuencia.

En las redes de comunicaciones por fibra óptica se emplean sistemas de emisión láser. Aunque en los primeros tiempos de la fibra óptica se utilizaron también emisores LED, en el 2007 están prácticamente en desuso.

Clasificación de redes por su alcance

Clasificación de redes por su alcance

- PAN (Personal Área Network)


Este tipo de red por alcance abarca el área personal de un usuario. Ya sea por medios cableados o inalámbricos, conecta dispositivos tales como computadoras, smartphones, impresoras, scanner, y otros en un área de pocos metros de alcance, entregando a usuario conectividad con el mundo externo. Los avances en redes con tecnología inalámbrica o WPAN (Wireless PAN), se han traducido en un fuerte desarrollo y ampliación de este concepto, permitiendo cada vez más autonomía a los usuarios y generando nuevas tecnologías de red centradas en las personas; no más cables, debemos acercarnos al paradigma de que la red debe estar donde tu estés, no tu subordinado a la red.

- LAN (Local Área Network)



En este tipo de red se interconectan una serie de computadoras y dispositivos periféricos en un área de hasta 200 mts., pudiendo llegar a 1 Km de distancia con el uso de repetidoras. Considera tanto el software como el hardware para la conexión de los dispositivos y el tratamiento de la información que transmite. Cuando se integran a esta red soluciones inalámbricas hablamos de una WLAN (Wireless LAN). Esta distribución permite optimizar recursos, ya que se evita redundancia en el hardware por la conexión de varios usuario a un dispositivo (impresoras y otros) y tambien redundar en el software ya que es posible compartir bases de datos o aplicaciones en red.

- CAN (Campus Área Network).



El término CAN o Campus area network se utiliza comunmente para la red que abarca un campus universitario o base militar, es una LAN ampliada, ya que puede interconectar varios edificios entre sí cubriendo mayores distancias, es muy similar a una red de área metropolitana y su diferencia principal radica en que es una red privada donde sus componenten pertenecena una misma organización.

- MAN (Metropolitan Área Network)


Una red MAN o de área metropolitana, corresponde a una red de Alta Velocidad (Banda Ancha), que abarca zonas extensas de cobertura dentro de una ciudad o municipio. Puede ser privada o pública; permite la integración de voz, datos, video, streaming como funcionalidades estables. Su estructura de transmisión permite llegar a velocidades de hasta 75 Mbps con pares de cobre y hasta 10 Gbps en el caso de fibra óptica. Si bien se basa en la misma tecnología de una LAN, la principal diferencia para clasificarla es que utiliza un proceso estándar para su funcionamiento (Norma IEEE).





¿Que es el modelo TCP/IP?

¿Que es el modelo TCP/IP?


El modelo TCP/IP es un modelo de descripción de protocolos de red desarrollado en la década de los 70 por Vinton Cerf y Robert E. Kahn. Fue implantado en la red ARPANET, la primera red de área amplia, desarrollada por encargo de DARPA, una agencia del Departamento de Defensa de los Estados Unidos, y predecesora de la actual red Internet. EL modelo TCP/IP se denomina a veces como Internet Model, Modelo DoD o Modelo DARPA.


El modelo TCP/IP, describe un conjunto de guías generales de diseño e implementación de protocolos de red específicos para permitir que un equipo pueda comunicarse en una red. TCP/IP provee conectividad de extremo a extremo especificando cómo los datos deberían ser formateados, direccionados, transmitidos, enrutados y recibidos por el destinatario. Existen protocolos para los diferentes tipos de servicios de comunicación entre equipos.

TCP/IP tiene cuatro capas de abstracción según se define en el RFC 1122. Esta arquitectura de capas a menudo es comparada con el Modelo OSI de siete capas.

El modelo TCP/IP y los protocolos relacionados son mantenidos por la Internet Engineering Task Force (IETF).


Para conseguir un intercambio fiable de datos entre dos equipos, se deben llevar a cabo muchos procedimientos separados.

El resultado es que el software de comunicaciones es complejo. Con un modelo en capas o niveles resulta más sencillo agrupar funciones relacionadas e implementar el software de comunicaciones modular.




Las capas están jerarquizadas. Cada capa se construye sobre su predecesora. El número de capas y, en cada una de ellas, sus servicios y funciones son variables con cada tipo de red. Sin embargo, en cualquier red, la misión de cada capa es proveer servicios a las capas superiores haciéndoles transparentes el modo en que esos servicios se llevan a cabo. De esta manera, cada capa debe ocuparse exclusivamente de su nivel inmediatamente inferior, a quien solicita servicios, y del nivel inmediatamente superior, a quien devuelve resultados.



Capa 4 o capa de aplicación: Aplicación, asimilable a las capas 5 (sesión), 6 (presentación) y 7 (aplicación) del modelo OSI. La capa de aplicación debía incluir los detalles de las capas de sesión y presentación OSI. Crearon una capa de aplicación que maneja aspectos de representación, codificación y control de diálogo.
Capa 3 o capa de transporte: Transporte, asimilable a la capa 4 (transporte) del modelo OSI.
Capa 2 o capa de internet: Internet, asimilable a la capa 3 (red) del modelo OSI.
Capa 1 o capa de acceso al medio: Acceso al Medio, asimilable a la capa 2 (enlace de datos) y a la capa 1 (física) del modelo OSI.

¿Que es el modelo OSI?


¿Que es el modelo OSI?


El modelo de interconexión de sistemas abiertos.
también llamado OSI (en inglés, Open System Interconnection) es el modelo de red descriptivo, que fue creado por la Organización Internacional para la Estandarización (ISO) en el año 1980.1 Es un marco de referencia para la definición de arquitecturas en la interconexión de los sistemas de comunicaciones.

Fue desarrollado en 1980 por la Organización Internacional de Estándares (ISO),1 una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.

Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.

El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.

Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.

Este modelo está dividido en siete capas:

Capa física:

Es la que se encarga de las conexiones globales de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.

Sus principales funciones se pueden resumir como:

Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de dicha conexión)

Capa de enlace de datos:

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo. Es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras así determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, tabletas y diferentes dispositivos con acceso a la red, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelo OSI).

Capa de red:

Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.

Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)
Enrutamiento: permiten seleccionar las rutas (RIP, IGRP, EIGRP, OSPF, BGP)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aun cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores o enrutadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.

En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte:

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).

Capa de sesión:

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación:

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta capa actúa como un traductor.


Capa de aplicación:

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.

Formato de los datos:

Otros datos reciben una serie de nombres y formatos específicos en función de la capa en la que se encuentren, debido a como se describió anteriormente la adhesión de una serie de encabezados e información final. Los formatos de información son los que muestra el gráfico:



APDU
Unidad de datos en capa de aplicación (capa 7).
PPDU
Unidad de datos en la capa de presentación (capa 6).
SPDU
Unidad de datos en la capa de sesión (capa 5).
capa de transporte (capa 4).
Paquete
Unidad de datos en el nivel de red (capa 3).
Trama
Unidad de datos en la capa de enlace (capa 2).
Bits
Unidad de datos en la capa física (capa 1).


Operaciones sobre los datos:

En determinadas situaciones es necesario realizar una serie de operaciones sobre las PDU para facilitar su transporte, debido a que son demasiado grandes o bien porque son demasiado pequeñas y estaríamos desaprovechando la capacidad del enlace.

Bloqueo y desbloqueo
El bloqueo hace corresponder varias (N)-SDUs en una (N)-PDU.

El desbloqueo identifica varias (N)-SDUs que están contenidas en una (N)-PDU.

Concatenación y separación
La concatenación es una función-(N) que realiza el nivel-(N) y que hace corresponder varias (N)-PDUs en una sola (N-1)-SDU.

La separación identifica varias (N)-PDUs que están contenidas en una sola (N-1)-SDU.





























Características de una red Informática

Características de una red Informática


1. Velocidad

Es la velocidad a la que se transmiten los datos por segundo a través de la red. Suelen medirse con un test de velocidad. La rapidez de subida y descarga de datos será diferente según los estándares que utilicemos y también según el tipo de red o medio a través del que se transmiten los datos (inalámbrica, fibra óptica, cables de teléfono o coaxial).

Por ejemplo, una red inalámbrica es la mitad de rápida que una cableada (sobre 54 Mbps). Al dividirla entre todos los equipos informáticos conectados, se obtiene una cifra de Megabytes por segundo un poco inferior incluso a lo que cabría esperar debido a los protocolos de comunicación. Hay que mirar si conviene tener un sistema de cableado estructural o incluso si vendría mejor disponer de fibra óptica.



2. Seguridad de la red

Es uno de los aspectos más peligrosos que rodean a las redes inalámbricas, como ya hablamos en otra ocasión. La aparición de intrusos que nos quitan ancho de banda es una de las razones que convierte estas redes en bastante más vulnerables.

Por otro lado, las redes cableadas pueden sufrir interferencias como consecuencia del uso de otros aparatos como el microondas. A diferencia de estas, la fibra óptica es la que ofrece una mayor seguridad.

3. Confiabilidad

Mide el grado de probabilidades que existe de que uno de los nodos de la red se averíe y por tanto se produzcan fallos. En parte dependerá de la topología de la red que hallamos instalado y del lugar que ocupa el componente averiado. Cuando uno de los componentes no funciona, puede afectar al funcionamiento de toda la red o por el contrario constituir un problema local.

4. Escalabilidad

red de área local.Una red no puede añadir nuevos componentes de forma continua y esperar que funcione a la misma velocidad. A medida que añadimos nuevos nodos y estos se hallan funcionando a la vez, la conexión a Internet se reduce, la velocidad de transmisión de datos en general es menor y hay más probabilidad de errores.

Es por eso importante ver la facilidad y las posibilidades de añadir o cambiar componentes de hardware y software o nuevos servidores para mejorar el rendimiento de la red.terminante contar con un hardware redundante para que, en caso de fallo en uno de los componentes, haya una gran tolerancia a los errores y los demás equipos puedan seguir trabajando.

5. Disponibilidad

Es la capacidad que posee una red para hallarse disponible y completamente activa cuando la necesitamos. Hablamos de la cantidad de tiempo posible en que podemos someter los nodos a unas condiciones de rendimiento necesarias en nuestra empresa. El objetivo es conseguir que la red se halle disponible según las necesidades de uso para las que se ha instalado.

Si te ha sido útil este artículo, te invito a que lo compartas en las redes sociales y a que nos dejes un comentario.







Concepto de Red Informatica


el sistema formado por dos o más ordenadores interconectados entre sí, atreves de tarjetas de red con transmisión por cable o de forma inalámbrica, para compartir ficheros, recursos, aplicaciones, conexiones a internet, etc.

LAN o Red de Área Local con transmisión por cable

En la redes el medio de transmision tambien puede ser de forma inalanbrica por medio de ondas.
E
lementos de una red informática
Esquema de una red local o LAN formado por tres ordenadores conectados en estrella a través de un switch y una impresora compartida a través del equipo 3 que actúa como servidor de impresora, entre otras cosas.
EN TODA RED INFORMATICA TENEMOS QUE CONSIDERAR 2 PARTES ESENCIALES:
a) La parte física o hardware, y
b) La parte lógica o software

viernes, 5 de julio de 2013

Tipos de Redes y su Topografia

La Topografía

La topología de red se define como una familia de comunicación usada por los computadores que conforman una red para intercambiar datos. El concepto de red puede definirse como "conjunto de nodos interconectados". Un nodo es el punto en el que una curva se intercepta a sí misma. Lo que un nodo es concretamente, depende del tipo de redes a que nos refiramos.1

Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, por la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en el momento.

En algunos casos se puede usar la palabra arquitectura en un sentido relajado para hablar a la vez de la disposición física del cableado y de cómo el protocolo considera dicho cableado. Así, en un anillo con una MAU podemos decir que tenemos una topología en anillo, o de que se trata de un anillo con topología en estrella.

La topología de red la determina únicamente la configuración de las conexiones entre nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de transmisión y los tipos de señales no pertenecen a la topología de la red, aunque pueden verse afectados por la misma.
¿Cuáles son los tipos de conexiones a Internet?, ¿Qué es una red informática? O ¿Cómo funciona la red?, son preguntas con las cuales estamos más o menos familiarizados, pero sus respuestas aún son de manejo de unos pocos.

La verdad es que no necesitas ser un experto en informática para saber qué hay desde tu conexión hacia afuera, si bien hay muchos nombres y términos técnicos, la estructura y funcionamiento de una red en su raíz es más simple de lo que parece.

Una red informática, es básicamente un conjunto de equipos conectados entre sí, que envían y reciben impulsos eléctricos, ondas electromagnéticas o similares con el fin de transportar datos.

La utilidad de la Red es compartir información y recursos a distancia, procurar que dicha información sea segura, esté siempre disponible, y por supuesto, de forma cada vez más rápida y económica.

Una red informática tiene distintos tipos de clasificación dependiendo de su estructura o forma de transmisión, entre los principales tipos de redes están los siguientes:

Redes por Alcance
Redes por tipo de conexión
Redes por relación funcional
Redes por Topología
Redes por Direccionalidad
Redes por grado de autentificación
Redes por grado de difusión
Redes por servicio y función


REDES POR ALCANCE:

Este tipo de red se nombra con siglas según su área de cobertura: una red de área personal o PAN (Personal Área Network) es usada para la comunicación entre dispositivos cerca de una persona; una LAN (Local Área Network), corresponde a una red de área local que cubre una zona pequeña con varios usuarios, como un edificio u oficina. Para un campus o base militar, se utiliza el término CAN (Campus Área Network). Cuando una red de alta velocidad cubre un área geográfica extensa, hablamos de MAN (Metropolitan Área Network) o WAN (Wide Área Network). En el caso de una red de área local o LAN, donde la distribución de los datos se realiza de forma virtual y no por la simple direccionalidad del cableado, hablamos de una VLAN (Virtual LAN). También cabe mencionar las SAN (Storage Área Network), concebida para conectar servidores y matrices de discos y las Redes Irregulares, donde los cables se conectan a través de un módem para formar una red.




REDES POR TIPO DE CONEXION:

Cuando hablamos de redes por tipo de conexión, el tipo de red varía dependiendo si la transmisión de datos es realizada por medios guiados como cable coaxial, par trenzado o fibra óptica, o medios no guiados, como las ondas de radio, infrarrojos, microondas u otras transmisiones por aire.


En la imagen de WLAN (Wireless LAN) podemos ver el medio “guiado” representado por la línea negra de cableado, y el medio “no guiado”, correspondiente al acceso inalámbrico marcado en los círculos punteados.

REDES POR RELACION FUNCIONAL:

Cuando un cliente o usuario solicita la información a un servidor que le da respuesta es una Relación Cliente/Servidor, en cambio cuando en dicha conexión una serie de nodos operan como iguales entre sí, sin cliente ni servidores, hablamos de Conexiones Peer to Peer o P2P.



REDES POR TOPOLOGIA:

La Topología de una red, establece su clasificación en base a la estructura de unión de los distintos nodos o terminales conectados. En esta clasificación encontramos las redes en bus, anillo, estrella, en malla, en árbol y redes mixtas.


REDES POR DIRECCIONALIDAD DE DATOS:

En la direccionalidad de los datos, cuando un equipo actúa como emisor en forma unidireccional se llama Simplex, si la información es bidireccional pero solo un equipo transmite a la vez, es una red Half-Duplex o Semi-Duplex, y si ambos equipos envían y reciben información simultáneamente hablamos de una red Full Duplex.



REDES SEGÚN GRADO DE AUTENTIFICACION:

Las Redes Privadas y la Red de Acceso Público, son 2 tipos de redes clasificadas según el grado de autentificación necesario para conectarse a ella. De este modo una red privada requiere el ingreso de claves u otro medio de validación de usuarios, una red de acceso público en cambio, permite que dichos usuarios accedan a ella libremente.



SEGÚN GRADO DE DIFUSIÓN:
Otra clasificación similar a la red por grado de autentificación, corresponde a la red por Grado de Difusión, pudiendo ser Intranet o Internet. Una intranet, es un conjunto de equipos que comparte información entre usuarios validados previamente, Internet en cambio, es una red de alcance mundial gracias a que la interconexión de equipos funcionan como una red lógica única, con lenguajes y protocolos de dominio abierto y heterogéneo.


REDES SEGÚN SERVICIO O FUNCIÓN:

Por último, según Servicio o Función de las Redes, se pueden clasificar como Redes Comerciales, Educativas o Redes para el Proceso de Datos.

Todas estas clasificaciones, nos permiten identificar la forma en que estamos conectados a una red, qué uso podemos darle y el tipo de información a la cual tendremos acceso. Conocerlas entonces nos servirá para elegir con una base mucho más sólida, qué conexión necesitamos para cubrir las necesidades de nuestro negocio y valorizar los costos que implica cada una de ellas.

Más adelante, iré publicando una serie de posts para ir ampliando más en detalle el tema de conectividad y redes. Desde ya se agradecen sus comentarios y aportes.












sábado, 1 de junio de 2013

Ejemplo para insertar imagen de fondo en una pagina web (HTML)


Para insertar imagen de fondo a una pagina web, se coloca el siguiente código:



Dependiendo del tipo de formato de la imagen, se colocara al final del nombre de dicha imagen, el nombre del tipo del archivo, ejempo:
jpg
bmp
gif
png




Ejemplo para insertar música o sonido en una pagina web (HTML)

Para insertar música o sonido a una pagina web, se coloca el siguiente código:



Dependiendo del tipo del archivo, se colocara al final del nombre de dicha canción o sonido, el nombre del tipo del archivo, ejemplo:
Mp3
wma




Ejemplo para insertar vídeos en una pagina web

Para insertar vídeos a una pagina web, se colocara el siguiente código:



Dependiendo del tipo del video, se colocara al final el nombre de tipo del archivo, ejemplo:
AVI
wmv
Mp4
3gp


Recordemos que estos códigos son utilizables cuando estamos creando una pagina web desde nuestro ordenador sin conexión a una red de Internet.
















sábado, 20 de abril de 2013

Normas para publicar contenido en la Web


Puntos que abarca el Código de ACM
*Imperativos Morales Generales
1. Contribuir al bienestar humano y de la sociedad.
2. Evitar daños a otros.
3. Ser honesto y confiable.
4. Ser limpio y tomar acciones para no discriminar.
5. Honrar los derechos de propiedad, incluyendo copyrights y
patentes.

6. Dar los créditos apropiados por la propiedad intelectual.
7. Respetar la privacidad de los otros.
8. Honrar la privacidad.
9. Responsabilidades Profesionales más específicas.
10. Esforzarse para alcanzar la más alta calidad, efectividad y
dignidad en el proceso y en los productos del trabajo profesional

11. Alcanzar y mantener competencia profesional.
12. Conocer y respetar las leyes existentes pertinentes al trabajo
profesional.

13. Aceptar y otorgar una revisión profesional apropiada.
14. Dar evaluaciones comprehensivas y completas de los sistemas
computacionales y sus impactos, incluyendo análisis de posibles
riesgos.

15. Honrar contratos, tratos y responsabilidades asignadas.
16. Mejorar la comprensión pública de la computación y sus
consecuencias.

17. Accesar los recursos de computación y comunicación solo
con la debida autorización.
Los colores mas apropiados para tu pagina Web

El color en un elemento fundamental de tu página web. Es capaz de “manipular” el subconsciente de las personas, no sólo haciendo que la web les resulte agradable, sino pudiendo conseguir que lean el texto que quieres, que hagan clic en el botón de compra que te interesa y, en definitiva, que vean lo que tú quieres que vean.

Antes de elegir los colores para tu página

Define el producto o servicio que en tu web ofreces. Si vendes productos relacionados con el medio ambiente, por ejemplo, no deberías usar colores tales como el rojo o el naranja, sino que deberías utilizar colores verdes tonos tierra. El objetivo es que elijas los colores que encajen y definan el producto o servicio que vendes.

Ten muy claro a qué audiencia se dirige tu página. Los colores utilizados para una página cuyo público objetivos son adolescentes, deberían ser muy distintos de los utilizados para un sitio web cuyo público objetivo son los mayores de 50, por ejemplo.

Conoce los significados de los colores. Aunque estos significados varían mucho según países y según culturas, hay una serie de líneas generales que te ayudarán a saber cómo apelar a las emociones y al subconsciente de tus usuarios a través de los colores:

Negro:
Implica elegancia, estilo, sofisticación, poder; pero también misterio, negatividad y oscuridad.
Gris:
Se relaciona con la inteligencia, la seguridad, la profesionalidad y la honestidad; pero también con lo aburrido, lo antiguo y lo triste.
Blanco:
Color asociado con la pureza, la simplicidad, la inocencia y las cosas buenas y puras.
Amarillo:
Con varios significados distintos, el amarillo se relaciona principalmente con al alegría, la energía, la curiosidad y la inteligencia.
Naranja:
Transmite seguridad, amistad y buen estado de ánimo; así como creatividad y desparpajo.
Marrón:
Implica seguridad y relajación. Es un color de la naturaleza, por lo que se relaciona con el otoño, la durabilidad, el control…
Rojo:
Relacionado con el amor, el deseo, el poder y la energía; pero también es un color que se relaciona con el peligro.
Verde:
Se relaciona con el bienestar y la armonía, con la naturaleza, la salud y la vida; pero también con el dinero.
Azul:
Transmite tranquilidad, confianza, estabilidad y honor. Es un color que suele gustar mucho a los hombres.
Lila:
Era el color de la realeza, por lo que se relaciona aun con la nobleza, la ambición, el poder, el lujo y el misterio.
Especificando los pasos anteriores tenemos:


1. EL FOCO DE EL WEBSITE

Esta es la primera cosa que usted quiere definir claramente antes que de tomar cualquier acción. Usted necesita decidir cual es el propósito del website- cual es foco en términos del objetivo.

Es importante definir este paso tan claramente como sea posible, porque el foco del website tiene el mayor impacto en todo el proyecto; este define los cimientos de el sitio.

Por ejemplo:

Un almacén oline.
Manejo de información para clientes establecidos.
Comercialización y nombre del sitio.

2. CARACTERÍSTICAS ESPECIFICAS DEL WEBSITE

Colocar en detalle lo que se definió en el primer paso, usted mira las características que usted necesita implementar. Por ejemplo:

Un shopping cart para el almacén online
Un password para proteger esta sección del website
De nuevo, si esto tiene mas detalles será mejor.

3. DEFINA CUALES SON LAS PRINCIPALES SECCIONES DE EL WEBSITE

Con los primeros pasos concluidos, usted esta listo para empezar definiendo cuales son las principales secciones de el website; puede pintar rápidos diagramas de el website.

Mediante un diagrama se puede ver la jerarquía del website y como las secciones del sitio se relacionan entre si.

4. ESCRIBA SU CONTENIDO DEFINITIVO

Esta parte usualmente se deja para el final; y esa es la razón por la que mucha jente resulta preguntandose por que tuvieron que devolverse a repensar acerca de la estructura del sitio.

Todos los websites son manejados por su contenido; esto es lo que hace a un sitio efectivo y exitoso. Por lo tanto esta parte del proceso es muy importante, y usted necesita poner bastante atención a esto.

5. ENCUENTRE UN ESTILO / APARIENCIA PARA EL WEBSITE

En esa fase del proceso, usted esta listo para definir el aspecto visual del sitio-el diseño. Usted tiene algunas opciones:

Contrate un diseñador grafico/ Diseñador web
Cree su propio diseño– asumiendo que usted tine algo de artista y experiencia en diseño.
Compre un template para website y ahorre tiempo y dinero.

6. CREE EL WEBSITE

Si, yo se que puede parecer imposible pero usted ahora si puede finalmente empezar a crear su website en este punto!

Con las preguntas de arriba respondidas y los pasos completos, usted encontrará el proceso de crear el website (realmente escribir el código,) es mas fácil y usted reducirá la posibilidad de tener que regresar y rehacer cosas.

7. EVALUÉ EL WEBSITE, HAGA LOS CAMBIOS REQUERIDOS / UPDATES

Una vez usted ha creado el website, usted debería descansar por un día o dos. Esto le permitirá regresar y evaluar con los ojos frescos. Es buena idea que alguien que no haya trabajado en el sitio tome una mirada también.

Aquí hay algunas cosas que usted debería mirar:

Limpios y fáciles los updates diseño/estructura.
Buena funcionalidad en el diseño y todo lo que eso implica.
Rápida carga de las páginas 'light'.
Inteligente uso de la tecnología - Usando Flash pero si esto tiene sentido y no porque usted desea una llamativa entrada!
El website tiene la habilidad de dar el mensaje/significado del sitio rápidamente si no instantáneamente.

8. LANZAMIENTO– REGISTRE UN DOMINIO, ENCUENTRE UN HOST, UPLOAD EL WEBSITE.

Si usted terminó los pasos 1 a 7, usted sabe que está listo para mostrar al mundo su website. Todo lo que resta es el lanzamiento:

Registre un dominio
Encuentre una compañía host
Upload el website
NOTA: Usted puede realmente registrar el dominio y encontrar una compañía después de que usted ha completado los primeros 4 pasos. Algunas veces tiene sentido registrar su dominio antes de diseñar el website; esto es si usted desea integrar el nombre del dominio dentro del diseño.
Pasos para diseñar una pagina Web



Pasos:

1.Entienda cual es el enfoque que tendrá el website.
2.Que especificas características quiere en el website.
3.Cree una lista de secciones para su website y deles una jerarquía por importancia.
4.Escriba el contenido y dele una conclusión.
5.Encuentre un estilo y una apariencia que encaje en su website y los requerimientos de la industria.
6.Construya el website.
7.Evalué el website y haga los cambios/actualizaciones requeridas.
8.Lanzamiento-registre el dominio, encuentre un host, upload el website.

sábado, 9 de marzo de 2013


Presentación Software Libre, GNU, Free Foundation Software, Linux, Distribuciones de Linux


¿Que es Software Libre?


¿Que es Linux?


¿Que es el Software Libre?


Distribuciones de Linux







Linux es un sistema de libre distribución por lo que podes encontrar todos los ficheros y programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros y programas necesarios, así como instalarlos en tu sistema y configurarlo, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas y organizaciones que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.

Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).

Existen muchas y variadas distribuciones creadas por diferentes empresas y organizaciones a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberías poder encontrar en tiendas de informática ó librerías. En el peor de los casos siempre podes encargarlas directamente por Internet a las empresas y organizaciones que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.

UBUNTU:

Distribución basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.

REDHAT ENTERPRISE:

Esta es una distribución que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

FEDORA:

Esta es una distribución patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.

DEBIAN:

Otra distribución con muy buena calidad. El proceso de instalación es quizás un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que últimos avances.

OpenSuSE:

Otra de las grandes. Fácil de instalar. Versión libre de la distribución comercial SuSE.

SuSE LINUX ENTERPRISE:

Otra de las grandes. Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.

SLACKWARE:

Esta distribución es de las primeras que existió. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo Linux hace tiempo, que no hayan tenido esta distribución instalada en su ordenador en algún momento.

GENTOO:

Esta distribución es una de las únicas que incorporaron un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Podes compilar/optimizar vuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribución sin una buena conexión a Internet, un ordenador medianamente potente (si queres terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.

MANDRIVA:

Esta distribución fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.

KUBUNTU:

Distribución basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.

Linux





Linux es, a simple vista, un Sistema Operativo. Es una implementación de libre distribución UNIX para computadoras personales (PC), servidores, y estaciones de trabajo. Fue desarrollado para el i386 y ahora soporta los procesadores i486, Pentium, Pentium Pro y Pentium II, así como los clones AMD y Cyrix. También soporta máquinas basadas en SPARC, DEC Alpha, PowerPC/PowerMac, y Mac/Amiga Motorola 680x0.
Como sistema operativo, Linux es muy eficiente y tiene un excelente diseño. Es multitarea, multiusuario, multiplataforma y multiprocesador; en las plataformas Intel corre en modo protegido; protege la memoria para que un programa no pueda hacer caer al resto del sistema; carga sólo las partes de un programa que se usan; comparte la memoria entre programas aumentando la velocidad y disminuyendo el uso de memoria; usa un sistema de memoria virtual por páginas; utiliza toda la memoria libre para cache; permite usar bibliotecas enlazadas tanto estática como dinámicamente; se distribuye con código fuente; usa hasta 64 consolas virtuales; tiene un sistema de archivos avanzado pero puede usar los de los otros sistemas; y soporta redes tanto en TCP/IP como en otros protocolos.

Linux hace su aparición a principios de la década de los noventa, era el año 1991 y por aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linux Torvalds empezó, -como una afición y sin poderse imaginar a lo que llegaría este proyecto, a programar las primeras lineas de código de este sistema operativo llamado Linux.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querían mas.
Linux nunca anuncio la versión 0.01 de Linux (agosto 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenia acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linux anuncio la primera versión "Oficial" de Linux, versión 0.02. Con esta versión Linux pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los términos soporte, documentación, distribución . Después de la versión 0.03, Linux salto en la numeración hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y después de sucesivas revisiones, Linux incremento el numero de versión hasta la 0.95 (Marzo 1992). Mas de un año después (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0 no llego hasta el 14 de marzo de 1994. Desde entonces no se ha parado de desarrollar, la versión actual del núcleo es la 2.2 y sigue avanzando día a día con la meta de perfeccionar y mejorar el sistema.

Linux Benedict Torvalds nació en Helsinki, Finlándia, el año 1969. Empezó a "trabajar" con ordenadores a los 10 años, cuando su abuelo le compró un Comodore el año 1980. Éste buen señor era un matemático y estadista. Trabajava a la Universidad y fué quién "enganchó" al mundo de los computadores a nuestro buen amigo Linux.
Con el paso del tiempo, Linux pasó a tener un Sinclair QL, un gran ordenador de Clive Sinclair (creador del conocido Spectrum), que tenía algun pequeño error de diseño. Linux se sintió especialmente atraido por esta máquina, después de crear aplicaciones para ésta computadora y de haber retocado su hardware con la finalidad de adaptarlo a sus necesidades. El problema que tenía dicha máquina era que los recursos eran insuficientes para poder llevar a la práctica los planes de Linus. Además, no era un equipo compatible. Así pues, el mes de enero de 1991 compró su primer PC, un 386.
Retrocedamos otra vez en el tiempo, hasta 1988. Éste año fué cuando Linux entró a la Universidad. Este mismo año fué cuando un sistema operativo didáctico, basado en Unix y creado por Andy Tannenbaum, empezó a cobrar importáncia. Dicho sistema operativo era el famoso Minix.
Linux entró a formar parte de la comunidad de usuarios de Minix. Tannenbaum cometió un error en su sistema operativo. Era demasiado limitado, tanto técnicamente como políticamente, es decir, en ningún momento tuvo en cuenta la posibilidad de incluir Minix al proyecto GNU (creado el año 1983 por Richard Stallman). En realidad, la creación de Andy Tannenbaum estaba pensada para ser distribuida comercialmente. Su principal error fué ceder todos los derechos a Prentice Hall, que empezó a cobrar 150 dólares por licéncia (unas 22.500 ptas. / 135.23 euros).
Así pues, Linux tomó la decisión de cambiar esta política debido a que el sistema Minix era ideal para los estudiantes de sistemas operativos, y su precio era considerablemente alto. Llegamos de nuevo al año 1991, cuando Linux se acabó de comprar su primer 386. En aquellos momentos, la intención de nuestro amigo era clara: crear un nuevo Kernel de UNIX basado en el Kernel de Minix y modificarlo periódicamente de manera que fuera capaz de ejecutar aplicaciones GNU.
A pesar de todo, no toda la vida del Sr. Linux ha estado dedicada exclusivamente al sistema operativo Linux...
Actualmente Linux Torvalds vive desde el año 1997 en Santa Clara, California, junto con su esposa Tove y sus dos hijas, Patricia Miranda y Daniela. Le encanta jugar con sus dos pequeñas. Está trabajando para Transmeta, aunque nadie no sabe demasiado bién en qué trabaja. Parece ser que existe una cláusula en su contrato que le impide revelar dicha información. De todas formas, se sabe que Transmeta está desarrollando un nuevo procesador con un juego de instrucciones RISC capaz de ejecutar código x86.
Tal vez una de las aficiones más conocidas de Linux es que le le gusta la cerveza, más aún si es Guinness. Así lo demostraron los miembros del SVLUG (Silicon Valley Linux User Group) cuando Linux fué a visitarlos para llevar a cabo una conferéncia y le regalaron una caja de cerveza...
Poca cosa más de sabe de este personaje que ha cambiado la forma de ver los ordenadores durente estos últimos años y que ha conseguido dar un buen empujón al proyecto GNU.


Free Foundation Software







La Free Software Foundation (Fundación para el software libre) es una organización creada en octubre de 1985 por Richard Stallman y otros entusiastas del software libre con el propósito de difundir este movimiento.

La Fundación para el software libre (FSF) se dedica a eliminar las restricciones sobre la copia, redistribución, entendimiento, y modificación de programas de computadoras. Con este objeto, promociona el desarrollo y uso del software libre en todas las áreas de la computación, pero muy particularmente, ayudando a desarrollar el sistema operativo GNU.

En sus inicios, la FSF destinaba sus fondos principalmente a contratar programadores para que escribiesen software libre. A partir de mediados de la década de 1990 existen ya muchas compañías y autores individuales que escriben software libre, por ello los empleados y voluntarios de la FSF han centrado su trabajo fundamentalmente en asuntos legales, organizativos y promocionales en beneficio de la comunidad de usuarios de software libre.

GNU







El proyecto GNU fue iniciado por Richard Stallman con el objetivo de crear un sistema operativo completamente libre: el sistema GNU.1

El 27 de septiembre de 1983 se anunció públicamente el proyecto por primera vez en el grupo de noticias net.unix-wizards. Al anuncio original, siguieron otros ensayos escritos por Richard Stallman como el "Manifiesto GNU", que establecieron sus motivaciones para realizar el proyecto GNU, entre las que destaca "volver al espíritu de cooperación que prevaleció en los tiempos iniciales de la comunidad de usuarios de computadoras".

GNU es un acrónimo recursivo que significa GNU No es Unix (GNU is Not Unix). Puesto que en inglés "gnu" (en español "ñu") se pronuncia parecido a "new", Richard Stallman recomienda pronunciarlo "guh-noo". En español, se recomienda pronunciarlo ñu como el antílope africano o fonéticamente;2 por ello, el término mayoritariamente se deletrea (G-N-U) para su mejor comprensión. En sus charlas Richard Stallman finalmente dice siempre «Se puede pronunciar de cualquier forma, la única pronunciación errónea es llamarlo "UNIX".

UNIX es un Sistema Operativo no libre muy popular, porque está basado en una arquitectura que ha demostrado ser técnicamente estable. El sistema GNU fue diseñado para ser totalmente compatible con UNIX. El hecho de ser compatible con la arquitectura de UNIX implica que GNU esté compuesto de pequeñas piezas individuales de software, muchas de las cuales ya estaban disponibles, como el sistema de edición de textos TeX y el sistema gráfico X Window, que pudieron ser adaptados y reutilizados; otros en cambio tuvieron que ser reescritos.

Para asegurar que el software GNU permaneciera libre para que todos los usuarios pudieran "ejecutarlo, copiarlo, modificarlo y distribuirlo", el proyecto debía ser liberado bajo una licencia diseñada para garantizar esos derechos al tiempo que evitase restricciones posteriores de los mismos. La idea se conoce en Inglés como copyleft(lo cual significa que el autor permite la distribucion libre del mismo,en clara oposición a copyright -'derecho de autor'-), y está contenida en la Licencia General Pública de GNU (GPL).

En 1990, el sistema GNU ya tenía un editor de texto llamado Emacs, un exitoso compilador (GCC), y la mayor parte de las bibliotecas y utilidades que componen un sistema operativo UNIX típico. Pero faltaba un componente clave llamado núcleo (kernel en inglés).

En 1991, Linus Torvalds empezó a escribir el núcleo Linux y decidió distribuirlo bajo la licencia GPL. Rápidamente, múltiples programadores se unieron a Linus en el desarrollo, colaborando a través de Internet y consiguiendo paulatinamente que Linux llegase a ser un núcleo compatible con UNIX. En 1992, el núcleo Linux fue combinado con el sistema GNU, resultando en un sistema operativo libre y completamente funcional. El Sistema Operativo formado por esta combinación es usualmente conocido como "GNU/Linux" o como una "distribución Linux" y existen diversas variantes. (Véase también: Controversia por la denominación GNU/Linux.

También es frecuente hallar componentes de GNU instalados en un sistema UNIX no libre, en lugar de los programas originales para UNIX. Esto se debe a que muchos de los programas escritos por el proyecto GNU han demostrado ser de mayor calidad que sus versiones equivalentes de UNIX. A menudo, estos componentes se conocen colectivamente como "herramientas GNU". Muchos de los programas GNU han sido también transportados a otros sistemas operativos como Microsoft Windows y Mac OS X.

Software Libre





La definición de software libre estipula los criterios que se tienen que cumplir para que un programa sea considerado libre. De vez en cuando modificamos esta definición para clarificarla o para resolver problemas sobre cuestiones delicadas. Más abajo en esta página, en la sección Historial, se puede consultar la lista de modificaciones que afectan la definición de software libre.

«Software libre» significa que el software respeta la libertad de los usuarios y la comunidad. En términos generales, los usuarios tienen la libertad de copiar, distribuir, estudiar, modificar y mejorar el software. Con estas libertades, los usuarios (tanto individualmente como en forma colectiva) controlan el programa y lo que hace.

Cuando los usuarios no controlan el programa, el programa controla a los usuarios. El programador controla el programa y, a través del programa, controla a los usuarios. Un programa que no es libre, llamado «privativo», es por lo tanto un instrumento de poder injusto.

Por tanto, el «software libre» es una cuestión de libertad, no de precio. Para entender el concepto, piense en «libre» como en «libre expresión», no como en «barra libre».

Un programa es software libre si los usuarios tienen las cuatro libertades esenciales:

La libertad de ejecutar el programa para cualquier propósito (libertad 0).
La libertad de estudiar cómo funciona el programa, y cambiarlo para que haga lo que usted quiera (libertad 1). El acceso al código fuente es una condición necesaria para ello.
La libertad de redistribuir copias para ayudar a su prójimo (libertad 2).
La libertad de distribuir copias de sus versiones modificadas a terceros (libertad 3). Esto le permite ofrecer a toda la comunidad la oportunidad de beneficiarse de las modificaciones. El acceso al código fuente es una condición necesaria para ello.
Un programa es software libre si los usuarios tienen todas esas libertades. Por tanto, usted debe ser libre de redistribuir copias, tanto con como sin modificaciones, ya sea gratuitamente o cobrando una tarifa por la distribución, a cualquiera en cualquier parte. El ser libre de hacer estas cosas significa, entre otras cosas, que no tiene que pedir ni pagar el permiso.

También debe tener la libertad de hacer modificaciones y usarlas en privado para su propio trabajo o pasatiempo, sin siquiera mencionar que existen. Si publica sus cambios, no debe estar obligado a notificarlo a nadie en particular, ni de ninguna manera en particular.

La libertad de ejecutar el programa significa que cualquier tipo de persona u organización es libre de usarlo en cualquier tipo de sistema de computación, para cualquier tipo de trabajo y finalidad, sin que exista obligación alguna de comunicarlo al programador ni a ninguna otra entidad específica. En esta libertad, lo que importa es el propósito de los usuarios, no el de los programadores. Usted como usuario es libre de ejecutar el programa para alcanzar sus propósitos, y si lo distribuye a otra persona, también esa persona será libre de ejecutarlo para lo que necesite; usted no tiene derecho a imponerle sus propios objetivos.

La libertad de redistribuir copias debe incluir las formas binarias o ejecutables del programa, así como el código fuente, tanto para las versiones modificadas como para las no lo estén. (Distribuir programas en forma de ejecutables es necesario para que los sistemas operativos libres se puedan instalar fácilmente). Resulta aceptable si no existe un modo de producir una formato binario o ejecutable para un programa específico, dado que algunos lenguajes no incorporan esa característica, pero debe tener la libertad de redistribuir dichos formatos si encontrara o programara una forma de hacerlo.

Para que la libertad 1 y 3 de realizar cambios y publicar las versiones modificadas tengan sentido, usted debe tener acceso al código fuente del programa. Por consiguiente, el acceso al código fuente es una condición necesaria para el software libre. El «código fuente» ofuscado no es código fuente real, y no cuenta como código fuente.

La libertad 1 incluye la libertad de usar su versión modificada en lugar de la original. Si el programa se entrega con un producto diseñado para ejecutar versiones modificadas de terceros, pero rechaza ejecutar las suyas, una práctica conocida como "tivoización" (tivoization) o arranque seguro (lockdown) (en la terminología perversa de los que la practican); la libertad 1 se convierte más en una ficción teórica que en una libertad práctica. Esto no es suficiente. En otras palabras, estos binarios no son software libre, incluso si se compilaron desde un código fuente que es libre.

Una manera importante de modificar el programa es agregándole subrutinas y módulos libres ya disponibles. Si la licencia del programa especifica que no se pueden añadir módulos que ya existen y que están bajo una licencia apropiada, por ejemplo si requiere que usted sea el titular de los derechos de autor del código que desea añadir, entonces se trata de una licencia demasiado restrictiva como para considerarla libre.

La libertad 3 incluye la libertad de publicar sus versiones modificadas como software libre. Una licencia libre también puede permitir otras formas de publicarlas; en otras palabras, no tiene que ser una licencia de copyleft. No obstante, una licencia que requiera que las versiones modificadas no sean libres, no se puede considerar libre.

Para que estas libertades sean reales, deben ser permanentes e irrevocables siempre que usted no cometa ningún error; si el programador del software tiene el poder de revocar la licencia, o de añadir restricciones a las condiciones de uso en forma retroactiva, sin que haya habido ninguna acción de parte del usuario que lo justifique, el software no es libre.

Sin embargo, ciertos tipos de reglas sobre la manera de distribuir software libre son aceptables, cuando no entran en conflicto con las libertades principales. Por ejemplo, el copyleft (definido muy resumidamente) es la regla en base a la cual, cuando redistribuye el programa, no puede agregar restricciones para denegar a los demás las libertades principales. Esta regla no entra en conflicto con las libertades principales, más bien las protege.

Software libre no significa que no es comercial. Un programa libre debe estar disponible para el uso comercial, la programación comercial y la distribución comercial. La programación comercial de software libre ya no es inusual; tal software libre comercial es muy importante. Puede haber pagado dinero para obtener copias de software libre, o puede haber obtenido copias sin costo. Pero sin tener en cuenta cómo obtuvo sus copias, siempre tiene la libertad de copiar y modificar el software, incluso de vender copias.

Si una modificación constituye o no una mejora, es un asunto subjetivo. Si su derecho a modificar un programa se limita, básicamente, a modificaciones que alguna otra persona considera una mejora, el programa no es libre.

No obstante, eventuales reglas sobre cómo empaquetar una versión modificada son aceptables si no limitan substancialmente su libertad para publicar versiones modificadas, o su libertad para hacer y usar versiones modificadas en privado. Así, es aceptable que una licencia le obligue a cambiar el nombre de la versión modificada, eliminar el logotipo o identificar sus modificaciones como suyas. Son aceptables siempre y cuando esas obligaciones no sean tan agobiantes que le dificulten la publicación de sus modificaciones. Como ya está realizando otras modificaciones al programa, no le supondrá un problema hacer algunas más.

Un problema particular se presenta cuando la licencia requiere que a un programa se le cambie el nombre con el cual será invocado por otros programas. De hecho este requisito dificulta la publicación de la versión modificada para reemplazar al original cuando sea invocado por esos otros programas. Este tipo de requisitos es aceptable únicamente cuando exista un instrumento adecuado para la asignación de alias que permita especificar el nombre del programa original como un alias de la versión modificada.

Las normas del tipo «si pone a disposición su versión de este modo, también debe hacerlo de este otro modo» también pueden ser, bajo la misma condición, admisibles. Un ejemplo de una norma admisible sería alguna que requiera que, si usted ha distribuido una versión modificada y uno de los programadores anteriores le solicita una copia, usted deba enviársela (tenga en cuenta que tal norma le sigue permitiendo optar por distribuir o no distribuir su versión). Las normas que obligan a suministrar el código fuente a los usuarios de las versiones publicadas también son admisibles.

En el proyecto GNU, usamos copyleft para proteger legalmente estas libertades para todos. Pero también existe software libre sin copyleft. Creemos que existen razones importantes por las que es mejor usar copyleft, pero si su programa es software libre sin copyleft, sigue siendo ético de todos modos. (Véase en categorías del software libre una descripción de la relación que existe entre «software libre», «software con copyleft» y otros tipos de software libre).

En algunos casos las regulaciones de control de exportación y las sanciones comerciales pueden limitar sus libertades de distribuir copias de programas a nivel internacional. Los desarrolladores de software no tienen el poder de eliminar o pasar por alto estas restricciones, pero lo que pueden y deben hacer es rechazar imponerlas como condiciones para el uso del programa. De este modo, las restricciones no afectarán las actividades ni a las personas fuera de las jurisdicciones de dichos gobiernos. Por tanto, las licencias de software libre no deben requerir la obediencia a ninguna regulación de exportaciones como condición de cualquiera de las libertades esenciales.

La mayoría de las licencias de software libre están basadas en el copyright, y existen límites en los tipos de requisitos que se pueden imponer a través del copyright. Si una licencia basada en el copyright respeta la libertad en las formas antes mencionadas, es poco probable que surja otro tipo de problema que no hayamos anticipado (a pesar de que esto ocurre ocasionalmente). Sin embargo, algunas licencias de software libre están basadas en contratos, y los contratos pueden imponer un rango mucho más grande de restricciones. Esto significa que existen muchas maneras posibles de que tal licencia sea inaceptablemente restrictiva y que no sea libre.

Nos resulta imposible enumerar todas las formas en las que eso puede pasar. Si una licencia basada en un contrato restringe al usuario de un modo que no se puede hacer con las licencias basadas en el copyright, y que no está mencionado aquí como legítimo, tendremos que analizar el caso, y probablemente concluyamos que no es libre.

Cuando se habla de software libre, es mejor evitar usar términos como «regalar» o «gratuito», porque dichos términos implican que el asunto es el precio, no la libertad. Algunos términos comunes como «piratería» implican opiniones con las que esperamos no concuerde. Véase un análisis sobre el uso de esos términos en nuestro artículo palabras y frases confusas que vale la pena evitar.

Por último, tenga en cuenta que para interpretar criterios tales como los que se establecen en esta definición de software libre, se hace necesario un cuidadoso análisis. Para decidir si una licencia de software específica es una licencia de software libre, la evaluamos en base a estos criterios para determinar si concuerda tanto con el espíritu de los mismos como con la terminología precisa. Si una licencia incluye restricciones inaceptables, la rechazamos, aún cuando no hubiéramos anticipado el problema en estos criterios. Algunas veces, los requisitos de una licencia revelan una cuestión que hace necesaria una reflexión más profunda, incluyendo la discusión con un abogado, antes de que podamos decidir si el requisito es aceptable. Cuando llegamos a una conclusión sobre una nueva cuestión, solemos actualizar estos criterios para que resulte más fácil ver por qué una cierta licencia puede o no ser calificada como libre.