REDES DE COMPUTADORAS

 Resumen sobre una red de computadoras

 Una red de computadoras (también llamada red de ordenadores, red de comunicaciones de datos, red informática) es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.


Como en todo proceso de comunicación, se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de ordenadores es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, el cual es una gran red de millones de ordenadores ubicados en distintos puntos del planeta interconectados básicamente para compartir información y recursos








La comunicación por medio de una red se lleva a cabo en dos diferentes categorías: la capa física y la capa lógica.
La capa física incluye todos los elementos de los que hace uso un equipo para comunicarse con otros equipos dentro de la red, como, por ejemplo, las tarjetas de red, los cables, las antenas, etc.
La comunicación a través de la capa lógica se rige por normas muy rudimentarias que por sí mismas resultan de escasa utilidad. Sin embargo, haciendo uso de dichas normas es posible construir los denominados protocolos, que son normas de comunicación más complejas (mejor conocidas como de alto nivel), capaces de proporcionar servicios que resultan útiles.
Los protocolos son un concepto muy similar al de los idiomas de las personas. Si dos personas hablan el mismo idioma, es posible comunicarse y transmitir ideas.
La razón más importante (quizá la única) sobre por qué existe diferenciación entre la capa física y la lógica es sencilla: cuando existe una división entre ambas, es posible utilizar un número casi infinito de protocolos distintos, lo que facilita la actualización y migración entre distintas tecnologías.



objetivos de una red

El objetivo primordial de una red, en general, es el de compartir recursos entre los equipos integrantes de esa red, sin importar la localización física de cada equipo.

Esos recursos pueden ser de diferentes tipos, dependiendo del plan para el que se armó la red. Por ejemplo, se puede crear una red hogareña de 2 o 3 computadoras para compartir los archivos entre sí, compartir la impresora (que solo está conectada a una de esas computadoras), compartir la conexión a internet, etc.

Internet es, en sí misma, una red de computadoras y dispositivos que permite compartir información a nivel mundial, empleando diversos tipos de dispositivos (celulares, PCs, televisores, etc).

Una red de computadora debe cumplir con el objetivo de ser FIABLE, esto es, que la conexión sea estable.


elementos de una red


Una red de computadoras consta tanto de hardware como de software. En el hardware se incluyen: estaciones de trabajo, servidores, tarjeta de interfaz de red, cableado y equipo de conectividad. En el software se encuentra el sistema operativo de red (Network Operating System, NOS).

SERVIDORES Son aquellas computadoras capaces de compartir sus recursos con otros. Los recursos compartidos pueden incluir impresoras, unidades de disco, CD-ROM, directorios en disco duro e incluso archivos individuales. Algunos de ellos son: servidor de discos, servidor de archivos, servidor de archivos distribuido, servidores de archivos dedicados y no dedicados, servidor de terminales, servidor de impresoras, servidor de discos compactos, servidor web y servidor de correo.


TERMINALES O NODOS
Nodos (Redes) y Equipos Terminales Un poco de Historia Diagrama de una Red El primer indicio de redes de comunicación fue de tecnología telefónica y telegráfica. En 1940 se transmitieron datos desde la Universidad de Darmouth, en Nuevo Hampshire, a Nueva York.
A finales de la década de 1960 y en los posteriores 70 fueron creadas las minicomputadoras.
A mitad de la década de 1980 las PC comienzan a usar los módems para compartir archivos con otras computadoras, en un rango de velocidades que comenzó en 1200 bps y llegó a los 56 kbps (comunicación punto a punto o dial-up), cuando empezaron a ser sustituidos por sistema de mayor velocidad, especialmente ADSL. Un nodo de computadoras, también llamada red de ordenadores ,es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.
MEDIOS 
medios transmisión 
constituye el canal que permite la transmisión de información entre dos terminales en un sistema de 
transmisión. Las transmisiones se realizan habitualmente empleando ondas electromagnéticas que se 
propagan a través del canal. A veces el canal es un medio físico y otras veces no, ya que las ondas 
electromagnéticas son susceptibles de ser transmitidas por el vacío



TIPOS DE MEDIOS DE TRANSMISIÓN


 PAR TRENZADO, FIBRA ÓPTICA, CABLE COAXIAL

transmisión constituye el canal que permite la transmisión de información entre dos terminales  en  un sistema de transmisión. Las transmisiones se realizan habitualmente empleando ondas
electromagnéticas que se propagan a través del canal. A veces el canal es un medio físico y
otras veces no, ya que las ondas electromagnéticas son susceptibles de ser transmitidas por el vacío.

TIPOS DE MEDIOS DE TRANSMICIÓN

PAR TRENZADO, FRIBRA OPTICA, CABLE COAXIAL



PAR TRENZADO Medio de transmisión más antiguo y muy utilizado. Consiste en dos alambres de cobre aislados, que se tuercen en forma helicoidal; esta forma trenzada del cable se utiliza para reducir la interferencia eléctrica delos pares cercanos. Su aplicación más frecuente se encuentra en el sistema telefónico. Se puede utilizar tanto para transmisión analógica como digital y su ancho de banda depende del calibre desalambre.

 TIPOS DE PARES TRENZADOS blindado Uniformes el cable de par Cada par se cubre con Cada par es trenzado normal. una malla metálica y de modo uniforme y de Ventajas: bajo costo el conjunto de pares realiza un blindajey fácil manejo. se recubre con una global de todos las Desventaja: tasa de lámina blindada. pares con una lámina error mayor Ventaja: reduce la externa blindada. tasa de error. Ventajas: similares Desventaja: mayores características al cable costo blindado, costo inferior Desventaja: confección sofisticada

CABLE COAXIAL Medio de transmisión muy utilizado, cuya existencia se reporta desde los años 40. Consta de un conductor interno de cobre sólido (núcleo)cubierto por un material aislante; éste a su vez rodeado por un conductor cilíndrico de cobre también en forma de malla trenzada, que aparece recubierto por una capa de plástico protector. Esta construcción garantiza una buena combinación: gran ancho de banda con excelente inmunidad al ruido. Se emplea tanto en líneas para transmisión a larga distancia, como en redes de área local.


TIPOS DE CABLE COAXIAL El Policloruro de vinilo (PVC)Es un tipo de plástico utilizado para construir el aislante y la cubierta protectora del cable en la mayoría de los tipos de cable coaxial. El cable coaxial de PVC es flexible y se puede instalar fácilmente en cualquier lugar. Sin embargo, cuando se quema, desprende gases tóxicos. Plenum El plenum contiene materiales especiales en su aislamiento y en una clavija del cable. Estos materialesson resistentes al fuego y producen una mínima cantidad de humos tóxicos. Sin embargo, el cableado plenum es más caro y menos flexible que el PVC


FIBRAS ÓPTICAS Se basa en la transmisión de información mediante luz, sea analógica o digital. Las fibras ópticas son filamentos de vidrio de alta pureza extremadamente compactos: El grosor de una fibra es similar a la de un cabello humano. Son ligeras, con bajas pérdidas de señal, amplia capacidad de transmisión y un alto grado de confiabilidad. El proceso de fabricación se controla mediante computadoras.


COMUNICACIÓN POR SATÉLITE 

El sistema de comunicación mediante satélite está equipado por múltiples antenas y transmisores-receptores. Cada dispositivo transmisor-receptor funciona de la siguiente manera: escucha una parte del espectro, amplifíca la señal de entrada y la retransmite a otra frecuencia para evitar los efectos de interferencia. Esta forma de comunicación posibilita la transmisión altísimas velocidades (puede llegar a ser 1000 veces superior a los 1544 Mbps)

SW O CONCENTRADOR

Un concentrador, o repetidor, es un dispositivo de emisión bastante sencillo. Los concentradores no logran dirigir el tráfico que llega a través de ellos, y cualquier paquete de entrada es transmitido a otro puerto (que no sea el puerto de entrada). Dado que cada paquete está siendo enviado a través de cualquier otro puerto, aparecen las colisiones de paquetes como resultado, que impiden en gran medida la fluidez del tráfico. Cuando dos dispositivos intentan comunicar simultáneamente, ocurrirá una colisión entre los paquetes transmitidos, que los dispositivos transmisores detectan. Al detectar esta colisión, los dispositivos dejan de transmitir y hacen una pausa antes de volver a enviar los paquetes.
La necesidad de hosts para poder detectar las colisiones limita el número de centros y el tamaño total de la red. Para 10 Mbit/s en redes, de hasta 5 segmentos (4 concentradores) se permite entre dos estaciones finales. Para 100 Mbit/s en redes, el límite se reduce a 3 segmentos (2 concentradores) entre dos estaciones finales, e incluso sólo en el caso de que los concentradores fueran de la variedad de baja demora. Algunos concentradores tienen puertos especiales (y, en general, específicos del fabricante) les permiten ser combinados de un modo que consiente encadenar a través de los cables Ethernet los concentradores más sencillos, pero aun así una gran red Fast Ethernet es probable que requiera conmutadores para evitar el encadenamiento de concentradores.
La mayoría de los concentradores detectan problemas típicos, como el exceso de colisiones en cada puerto. Así, un concentrador basado en Ethernet, generalmente es más robusto que el cable coaxial basado en Ethernet. Incluso si la partición no se realiza de forma automática, un concentrador de solución de problemas la hace más fácil ya que las luces pueden indicar el posible problema de la fuente. Asimismo, elimina la necesidad de solucionar problemas de un cable muy grande con múltiples tomas



Modem pc



La distinción más común es la que suele hacerse entre módems internos y módems externos, aunque han aparecido módems llamados módems software, más conocidos como winmódems o linuxmódems, que han vuelto complejo el panorama. También existen los módems para XDSL, RDSI, y los que se usan para conectarse a través de cable coaxial de 75 ohms (cablemódems).
Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector:
Bus ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy en día en desuso (obsoleto).
Bus PCI: el formato más común en la actualidad, todavía en uso.
AMR: en algunas placas; económicos, pero poco recomendables por su bajo rendimiento. Hoy es una tecnología obsoleta.
La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan espacio sobre la mesa y reciben energía eléctrica directamente del propio ordenador. Además, suelen ser algo más baratos debido a que carecen de carcasa y transformador, especialmente si son PCI (en este caso, son casi todos del tipo módem software). Por el contrario, son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse por software.
Externos: semejantes a los anteriores, pero externos al ordenador o PDA. La ventaja de estos módems reside en su fácil portabilidad entre ordenadores previamente distintos entre ellos (algunos de ellos más fácilmente transportables y pequeños que otros), además de que es posible saber el estado del módem (marcando, con/sin línea, transmitiendo...) mediante los ledes de estado que incorporan. Por el contrario, ocupan más espacio que los internos.







ROUTER DE REDES


Un router es un dispositivo de hardware que permite la interconexión de ordenadores en red.
El router o enrutador es un dispositivo que opera en capa tres de nivel de 3. Así, permite que varias redes u ordenadores se conecten entre sí y, por ejemplo, compartan una misma conexión de Internet.

Un router se vale de un protocolo de enrutamiento, que le permite comunicarse con otros enrutadores o encaminadores y compartir información entre sí para saber cuál es la ruta más rápida y adecuada para enviar datos.
Un típico enrutador funciona en un plano de control (en este plano el aparato obtiene información acerca de la salida más efectiva para un paquete específico de datos) y en un plano de reenvío (en este plano el dispositivo se encarga de enviar el paquete de datos recibidos a otra interfaz).



El router tiene múltiples usos más o menos complejos. En su uso más común, un enrutador permite que en una casa u oficina pequeña varias computadoras aprovechen la misma conexión a Internet. En este sentido, el router opera como receptor de la conexión de red para encargarse de distribuirlo a todos los equipos conectados al mismo. Así, se conecta una red o Internet con otra de área local.

Hoy por hoy, es sencillo obtener un router en forma más o menos económica de distintas marcas. También existen aquellos routers que utilizan software de código libre y que por ende permiten un ahorro económico mayor. Además, se han desarrollado softwares que facilitan la operación entre redes aun si no se cuenta con un equipo de uso dedicado.
Por último, últimamente se han diseñado enrutadores inalámbricos, que operan con redes fijas y móviles y, por lo tanto, pueden proveer de una conexión de Wi-Fi a los distintos dispositivos dentro de una vivienda, oficina o incluso en un espacio mayor







PUENTES DE RED 

Puente de red (en inglés: bridge) es el dispositivo de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI.
Interconecta segmentos de red (o divide una red en segmentos) haciendo la transferencia de datos de una red hacia otra con base en la dirección física de destino de cada paquete.
El término bridge, formalmente, responde a un dispositivo que se comporta de acuerdo al estándar IEEE 802.1D.
En definitiva, un bridge conecta segmentos de red formando una sola subred (permite conexión entre equipos sin necesidad de routers). Funciona a través de una tabla de direcciones MAC detectadas en cada segmento al que está conectado. Cuando detecta que un nodo de uno de los segmentos está intentando transmitir datos a un nodo del otro, el bridge copia la trama para la otra subred, teniendo la capacidad de desechar la trama (filtrado) en caso de no tener dicha subred como destino. Para conocer por dónde enviar cada trama que le llega (encaminamiento) incluye un mecanismo de aprendizaje automático (auto aprendizaje) por lo que no necesitan configuración manual.
tipos de redes
Un elemento que debe tenerse en cuenta cuando queremos instalar una red informática en nuestro negocio es el alcance o área de cobertura. ¿Puedo poner una red de área personal, u obligatoria mente me conviene más una LAN o red local? ¿Qué tipos de redes informáticas existen según el alcance?
En principio, lo lógico es que la mayoría de los pequeños negocios puedan funcionar perfectamente con una red local. No obstante, en el caso de empresas con grandes instalaciones, puede hacer falta mayor extensión si hablamos de un área de cobertura de gran superficie. En este artículo vamos a explicarte qué tipos de redes se pueden instalar.
Al margen de que puedan hacerse por cable estructurado, o por vía inalámbrica, las redes pueden dividirse por su alcance o cobertura. Lógicamente, cuanto mayor sea el espacio que queremos abarcar, más difícil y costosa puede resultar la instalación de cables (de hecho, las instalaciones de algunas de estas redes serían absurdas e impensables para una gran mayoría de las empresas). En cualquier caso, son las siguientes:
 1: la red de área personal (PAN)
Hablamos de una red informática de pocos metros, algo parecido a la distancia que necesita el Bluetooth del móvil para intercambiar datos. Son las más básicas y sirven para espacios reducidos, por ejemplo, si trabajas en un local de una sola planta con un par de ordenadores.
Las redes PAN pueden serte útiles si vas a conectar pocos dispositivos que no estén muy lejos entre sí. La opción más habitual, sin embargo, para aumentar el radio de cobertura y para evitar la instalación de cablea estructurado, suele ser la compra de un router y la instalación de una red de área local inalámbrica.
2: RED DE ÁREA LOCAL ( LAN)
Es la que todos conocemos y la que suele instalarse en la mayoría de las empresas, tanto si se trata de un edificio completo como de un local. Permite conectar ordenadores, impresoras, escáneres, fotocopiadoras y otros muchos periféricos entre sí para que puedas intercambiar datos y órdenes desde los diferentes nodos de la oficina.
Las redes LAN pueden abarcar desde los 200 metros hasta 1 kilómetro de cobertura.

3: RED DE ÁREA DE CAMPUS (CAN)
supongamos que tenemos varios edificios en los que queremos montar una red inalámbrica. ¿Qué pasa si el área de cobertura debe ser mayor a los 1000 metros cuadrados? Y no lo digo sólo por las universidades; las instalaciones de los parques tecnológicos, recintos feriales y naves comerciales pueden superar perfectamente esa superficie.
En tal caso, tenemos las redes CAN. Habría varias redes de área local instaladas en áreas específicas, pero a su vez todas ellas estarían interconectadas, para que se puedan intercambiar datos entre sí de manera rápida, o pueda haber conexión a Internet en todo el campus.
4: RED DE ÁREA METROPOLITANA (MAN)
Mucho más amplias que las anteriores, abarcan espacios metropolitanos mucho más grandes. Son las que suelen utilizarse cuando las administraciones públicas deciden crear zonas Wifi en grandes espacios. También es toda la infraestructura de cables de un operador de telecomunicaciones para el despliegue de redes de fibra óptica. Una red MAN suele conectar las diversas LAN que hay en un espacio de unos 50 kilómetros.

5: RED DE ÁREA AMPLIA ( WAN)
Son las que suelen desplegar las empresas proveedoras de internet para cubrir las necesidades de conexión de redes de una zona muy amplia, como una ciudad o país.
6: RED DE ÁREA DE ALMACENAMIENTO ( SAN)
Es una red propia para las empresas que trabajan con servidores y no quieren perder rendimiento en el tráfico de usuario, ya que manejan una enorme cantidad de datos. Suelen utilizarlo mucho las empresas tecnológicas. En Cisco te cuentan las ventajas de una red SAN

7: RED DE ÁREA LOCAL VIRTUAL 
Las redes de las que hablamos normalmente se conectan de forma física. Las redes VLAN se encadenan de forma lógica (mediante protocolos, puertos, etc.), reduciendo el tráfico de red y mejorando la seguridad. Si una empresa tiene varios departamentos y quieres que funcionen con una red separada, la red VLAN.
Espero que con esto tengas una imagen un poco más clara de las diferentes redes informáticas según su alcance. Si quieres saber más, puedes ver el artículo “tipos de redes informáticas según su tipologia”. Lo más lógico en una PYME es que necesite simplemente una LAN, pero para casos de mayor envergadura o si se quiere que las redes funcionen de forma separada, es bueno conocer que hay otras posibilidades.
¿Qué alcance tiene la red informática de tu casa o empresa? ¿Llega a todos los puntos del edificio, o hay sitios en los que no hay manera de conectarse?

 red de área local inalámbrica, también conocida como WLAN es un sistema de comunicación inalámbrico para minimizar las conexiones cableadas
Utiliza ondas de radio para llevar la información de un punto a otro sin necesidad de un medio físico guiado. Al hablar de ondas de radio nos referimos normalmente a portadoras de radio, sobre las que va la información, ya que realizan la función de llevar la energía a un receptor remoto. Los datos a transmitir se superponen a la portadora de radio y de este modo pueden ser extraídos exactamente en el receptor final.
A este proceso se le llama modulación de la portadora por la información que está siendo transmitida. Si las ondas son transmitidas a distintas frecuencias de radio, varias portadoras pueden existir en igual tiempo y espacio sin interferir entre ellas. Para extraer los datos el receptor se sitúa en una determinada frecuencia, frecuencia portadora, ignorando el resto. En una configuración típica de LAN (con cable) los puntos de acceso (transceiver) conectan la red cableada de un lugar fijo mediante cableado normalizado. El punto de acceso recibe la información, la almacena y la transmite entre la WLAN y la LAN cableada. Un único punto de acceso puede soportar un pequeño grupo de usuarios y puede funcionar en un rango de al menos treinta metros y hasta varios cientos. El punto de acceso (o la antena conectada al punto de acceso) es normalmente colocado en alto pero podría colocarse en cualquier lugar en que se obtenga la cobertura de radio deseada. El usuario final accede a la red WLAN a través de adaptadores. Estos proporcionan una interfaz entre el sistema de operación de red del cliente (NOS: Network Operating System) y las ondas, mediante una antena.
La naturaleza de la conexión sin cable es transparente a la capa del cliente.


El Congreso destina 1,6 millones para su nueva red informática y de wifi 
La nueva instalación permitirá adaptar la red de los cinco edificios de la Congreso a las nuevas características de los dispositivos fijos y móviles de última generación, y estará preparada para soportar telefonía IP y comunicaciones unificadas.
El proyecto contempla tanto el suministro de los conmutadores de red Ethernet como los puntos de acceso wifi de última generación con sus correspondientes controladores.
También se incluyen los sistemas de gestión especializados y los servicios de retirada del equipamiento actual, así como la instalación, configuración, garantía y mantenimiento durante tres años del nuevo sistema.

TOPOLOGÍA DE REDES
La topología de red se define como la cadena de comunicación usada por los nodos que conforman una red para comunicarse. Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su apariencia estética, por la cual puede comenzar con la inserción del servicio de internet desde el proveedor, pasando por el router, luego por un switch y este deriva a otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el resultado de esto es una red con apariencia de árbol porque desde el primer router que se tiene se ramifica la distribución de internet dando lugar a la creación de nuevas redes o subredes tanto internas como externas. Además de la topología estética, se puede dar una topología lógica a la red y eso dependerá de lo que se necesite en elemento.
Las topologías más corrientes para organizar las computadoras de una red son las de punto a punto, de bus, en estrella y en anillo. La topología de punta a punta es la más sencilla, y está formada por dos ordenadores conectados entre sí. La topología de bus consta de una única conexión a la que están unidos varios ordenadores. Todas las computadoras unidas a esta conexión única reciben todas las señales transmitidas por cualquier computadora conectada. La topología en estrella conecta varios ordenadores con un elemento dispositivo central llamado hub. El hub puede ser pasivo y transmitir cualquier entrada recibida a todos los ordenadores —de forma semejante a la topología de bus— o ser activo, en cuyo caso envía selectivamente las entradas a ordenadores de destino determinados. La topología en anillo utiliza conexiones múltiples para formar un círculo de computadoras. Cada conexión transporta información en un único sentido. La información avanza por el anillo de forma secuencial desde su origen hasta su destino.
Cuando hablamos de topología de una red, hablamos de su configuración. Esta configuración recoge tres campos: físico, eléctrico y lógico. El nivel físico y eléctrico se puede entender como la configuración del cableado entre máquinas o dispositivos de control o conmutación. Cuando hablamos de la configuración lógica tenemos que pensar en cómo se trata la información dentro de nuestra red, como se dirige de un sitio a otro o como la recoge cada estación.



entre los tipos de topologia físicas tenemos
 Topología de BUS / Linear Bus
 Topología de Estrella / Star
 Topología de Estrella Cableada / Star – Wired Ring.
 Topología de Árbol / Tree

Topología de BUS / Linear Bus
Consiste en un cable con un terminador en cada extremo del que se cuelgan todos loes elementos de una red. Todos los Nodos de la Red están unidos a este cable. Este cable recibe el nombre de “Backbone Cable”. Tanto Ethernet como LocalTalk pueden utilizar esta topología.
En esta topología, los elementos que constituyen la red se disponen linealmente, es decir, en serie y conectados por medio de un cable; el bus. Las tramas de información emitidas por un nodo (terminal o servidor) se propagan por todo el bus(en ambas direcciones), alcanzado a todos los demás nodos. Cada nodo de la red se debe encargar de reconocer la información que recorre el bus, para así determinar cual es la que le corresponde, la destinada a él.
Es el tipo de instalación más sencillo y un fallo en un nodo no provoca la caída del sistema de la red. Por otra parte, una ruptura del bus es difícil de localizar(dependiendo de la longitud del cable y el número de terminales conectados a él) y provoca la inutilidad de todo el sistema.

Ventajas de la topología de BUS
Es Más fácil conectar nuevos nodos a la red
Requiere menos cable que una topología estrella.

Desventajas de la topología de BUS
Toda la red se caería se hubiera una ruptura en el cable principal.
Se requiere terminadores.
Es difícil detectar el origen de un problema cuando toda la red cae.
No se debe utilizar como única solución en un gran edificio.

Topología de Estrella / Star
Es una topología estrella todos y cada uno de los nodos de la red, estos se conectan a un concentrador o hub.
Los datos es estas redes fluyen del emisor hasta el concentrador, este realiza todas las funciones de la red, además actúa como amplificador de los datos.
Todos los elementos de la red se encuentran conectados directamente mediante un enlace punto a punto al nodo central de la red, quien se encarga de gestionar las transmisiones de información por toda la estrella. Evidentemente, todas las tramas de información que circulen por la red deben pasar por el nodo principal, con lo cual un fallo en él provoca la caída de todo el sistema. Por otra parte, un fallo en un determinado cable sólo afecta al nodo asociado a él; si bien esta topología obliga a disponer de un cable propio para cada terminal adicional de la red. La topología de Estrella es una buena elección siempre que se tenga varias unidades dependientes de un procesador, esta es la situación de una típica mainframe, donde el personal requiere estar accesando frecuentemente esta computadora. En este caso, todos los cables están conectados hacia un solo sitio, esto es, un panel central.
Equipo como unidades de multiplexaje, concentradores y pares de cables solo reducen los requerimientos de cableado, sin eliminarlos y produce alguna economía para esta topología. Resulta económico la instalación de un nodo cuando se tiene bien planeado su establecimiento, ya que este requiere de un cable desde el panel central, hasta el lugar donde se desea instalarlo.
Ventajas de la Topología Estrella:
Gran facilidad de instalación
Posibilidad de desconectar elementos de red sin causar problemas.
Facilidad para la detección de fallo y su reparación.
Inconvenientes de la Topología de Estrella.
Requiere más cable que la topología de BUS.
Un fallo en el concentrador provoca el aislamiento de todos los nodos a él conectados.
Se han de comprar hubs o concentradores.

 Topología de Estrella Cableada / Star-Wired Ring
Físicamente parece una topología estrella pero el tipo de concentrador utilizado, la MAU se encarga de interconectar internamente la red en forma de anillo.
Esta tipología es la que se utiliza en redes Token ring



Topología de Arbol / Tree
La topología de árbol combina características de la topología de estrella con la BUS. Consiste en un conjunto de subredes estrella conectadas a un BUS. Esta topología facilita el crecimiento de la red.
Esta estructura de red se utiliza en aplicaciones de televisión por cable, sobre la cual podrían basarse las futuras estructuras de redes que alcancen los hogares. También se ha utilizado en aplicaciones de redes locales analógicas de banda ancha.


Ventajas de la Topología de Arbol:

Cableado punto a punto para segmentos individuales.
Soportado por multitud de vendedores de software y de hardware.
Desventajas de la Topología de Arbol:
La medida de cada segmento viene determinada por el tipo de cable utilizado.
Si se viene abajo el segmento principal todo el segmento se viene abajo con él.
Es más difícil su configuración.
Resumen topología físicas:
Cableado
Protocolo
Bus
Ethernet
Local Talk
Estrella
Par Trenzado
Estrella en Anillo
Token Ring
Arbol
Coaxial
Fibra Optica
Topología de Anillo
Los nodos de la red se disponen en un anillo cerrado conectados a él mediante enlaces punto a punto. La información describe una trayectoria circular en una única dirección y el nodo principal es quien gestiona conflictos entre nodos al evitar la colisión de tramas de información. En este tipo de topología, un fallo en un nodo afecta a toda la red aunque actualmente hay tecnologías que permiten mediante unos conectores especiales, la desconexión del nodo averiado para que el sistema pueda seguir funcionando. La topología de anillo esta diseñada como una arquitectura circular, con cada nodo conectado directamente a otros dos nodos. Toda la información de la red pasa a través de cada nodo hasta que es tomado por el nodo apropiado. Este esquema de cableado muestra alguna economía respecto al de estrella. El anillo es fácilmente expandido para conectar mas nodos, aunque en este proceso interrumpe la operación de la red mientras se instala el nuevo nodo. Así también, el movimiento físico de un nodo requiere de dos pasos separados: desconectar para remover el nodo y otra vez reinstalar el nodo en su nuevo lugar.

 Combinadas
Cuando se estudia la red desde el punto de vista puramente físico aparecen las topologías combinadas.
Anillo en estrella
Esta topología se utiliza con el fin de facilitar la administración de la red. Físicamente, la red es una estrella centralizada en un concentrador, mientras que a nivel lógico, la red es un anillo.
Bus en estrella
El fin es igual a la topología anterior. En este caso la red es un bus que se cablea físicamente como una estrella por medio de concentradores.
Estrella jerárquica
Esta estructura de cableado se utiliza en la mayor parte de las redes locales actuales, por medio de concentradores dispuestos en cascada para formar una red jerárquica.


La topologia de una red de cable coaxial es una linea, una cadena de Computadores unidos a un único cable mediante unas piezas en forma de T que salen de éste. Si el cable se rompe se interrumpe la comunicación en toda la red, lo cual no ocurre si lo que se ha desconectado es sólo el extremo de la T que une al computador con el cable, en cuyo caso sólo ese Computador pierde la comunicación con la red.
La topologia de una red de cable de par trenzado es una estrella cuyo centro es el hub, del cual parte un cable (que como explique medira menos de 100 metros de largo para cada Computador ). Cuando unos de estos cables se rompe, la comunicación sólo queda interrumpida entre ese Computador y la red, no afectando al resto.





INTERNET

Origen 

La idea de Taylor
Aunque se ha repetido hasta la saciedad que Internet tiene su origen en un proyecto militar estadounidense para crear una red de ordenadores que uniera los centros de investigación dedicados a labores de defensa en la década de los 60 en los Estados Unidos y que pudiera seguir funcionando a pesar de que alguno de sus nodos fuera destruido por un hipotético ataque nuclear, los creadores de ARPANET, la red precursora de Internet, no tenían nada parecido en mente y llevan años intentando terminar con esta percepción.
Internet surgió en realidad de la necesidad cada vez más acuciante de poner a disposición de los contratistas de la Oficina para las Tecnologías de Procesado de la Información (IPTO) más y más recursos informáticos. El objetivo de la IPTO era buscar mejores maneras de usar los ordenadores, yendo más allá de su uso inicial como grandes máquinas calculadoras, pero se enfrentaba al serio problema de que cada uno de los principales investigadores y laboratorios que trabajaban para ella parecían querer tener su propio ordenador, lo que no sólo provocaba una duplicación de esfuerzos dentro de la comunidad de investigadores, sino que además era muy caro; los ordenadores en aquella época eran cualquier cosa menos pequeños y baratos.

Robert Taylor  nombrado director de la IPTO en 1966, tuvo una brillante idea basada en las ideas propuestas por J. C. R. Licklider en un artículo llamado Man-Computer Symbiosis, junto con otro artículo de Licklider llamado The Computer as a Communication Device): ¿Por qué no conectar todos esos ordenadores entre sí? Al construir una serie de enlaces electrónicos entre diferentes máquinas, los investigadores que estuvieran haciendo un trabajo similar en diferentes lugares del país podrían compartir recursos y resultados más facilmente y en lugar de gastar el dinero en media docena de caros ordenadores distribuidos por todo el país, la ARPA (Agencia para Proyectos de Investigación Avanzados, agencia de la que dependía la IPTO de Roberts; hoy en día se llama DARPA) podría concentrar sus recursos en un par de lugares instalando allí ordenadores muy potentes a los que todo el mundo tendría acceso mediante estos enlaces.

 Servicios de Internet 
Originalmente, para acceder a Internet se necesitaba una cuenta universitaria o de alguna agencia del gobierno; que necesariamente tenía que estar autorizada. Internet comenzó a aceptar tráfico comercial a principios de la década de 1990, pero era demasiado limitada y en una cantidad mínima en comparación con la actualidad. Existía un pequeño grupo de compañías, llamadas puntos de acceso, que proveían de acceso público pero que se saturaban una vez el tráfico incrementaba. Las mayores compañías de telecomunicaciones comenzaron a proveer de acceso privado. Las pequeñas compañías se beneficiaban del acceso a la red de las grandes compañías, pero luego, las grandes compañías empezaron a cobrar por este acceso. Todo esto alrededor de mediados de la década de 1990, antes de que Internet explotase.
En 1995 el MTI y AT&T comenzaron a cobrar a los usuarios una renta mensual alrededor de los 20 $ USD. A los negocios se les aumentaba esta tarifa, ya que disponían de una conexión más rápida y fiable.
Cuando Internet evolucionó repentinamente, los ISP fueron desafiados drásticamente a actualizar su infraestructura, tecnologías y a incrementar sus puntos de acceso. Las mayores compañías de comunicaciones empezaron a desarrollar subsidiarias que se enfocaran en hacer del Internet un medio más accesible. Aunque la tecnología se actualizó, la web tenía que lidiar con más y más congestionamiento.
Los accesos se mejoraron, así que el uso de Internet creció exponencialmente, llevando a bajar los precios mensuales de los ISP, aunque variando por cada país. En países con pocos ISP, los cuales tenían un gran monopolio, se solía cobrar más que en lugares donde existe una situación de competencia real, la cual previene que las compañías suban sus precios demasiado


Evolución
Web 1.0, 2.0 ó 3.0 ¿que engloba esos términos y si son reales.
La verdad es que, para entender estos conceptos, y es lo que vamos a aprender, hay que hacer un poco de historia y analizar tanto el pasado, presente y futuro de internet para descubrir cuales han sido los cambios más significantes y como estos cambios han dado origen a conceptos y estrategias en la red totalmente diferentes, pero con un mismo denominador: Internet y la web como elemento principal de la galaxia.
Web 1.0
Nace en 1991 y su periodo acaba en 2003.
Es sin duda alguna el periodo más largo de internet y representa los orígenes de “algo” que en principio ni siquiera los creadores habrían podido imaginar su repercusión.
La web 1.0 representa la unidad de trabajo como la página web, una página donde el contenido en forma de sitios corporativos, noticias son estáticas y sólo en los últimos años de este periodo comienza a aparecer tanto los grandes Navegadores como el lenguaje HTML que hará la visualización de este contenido algo más agradable.
Las principales características son:
Páginas estáticas.
Extensiones propias de HTML introducidas por la guerra de navegadores.
Libros de visitas.
Botones “gif”.
Formularios HTML vía email.
Sin participación del usuario / visitante.
Páginas fijas difíciles de actualizar.

Web 2.0
A partir de 2004 hasta la actualidad se abre un nuevo concepto por el cual los diseños de los sistemas logran la conectividad de usuarios y potencian la denominada inteligencia colectiva. La participación de usuarios se hace patente.
Si en la versión anterior la mayoría de usuarios eran consumidores, en esta Web 2.0 el usuario es proconsumidor, es decir, produce contenido y a la vez lo consume.
Ejemplos:
Servicios web.
Aplicaciones web.
Redes sociales.
Wikis.
Blogs.
Podcasts.
Agregadores.
Plataformas Online
Por supuesto, esto supuso un cambio radical a la hora de la programación y tecnologías empleadas. Se pasaba del HTML a técnicas como:
CSS
Ajax
Java
XML
Web 3.0
La llamada web semántica o web inteligente.
Se basa en la manipulación de datos más eficiente a través de datos semánticos.
Si la web 2.0 tenía como protagonista al usuario (humano) que escribe por ejemplo artículos en un blog, la web 3.0 tiene como protagonista al procesador de la información (máquina) que debe ser capaz de entender la lógica descriptiva en diversos lenguajes, o dicho de otro modo, que las máquinas puedan describir la información de las webs y por lo tanto entiendan a los humanos de una forma eficiente.
Estas inquietudes se crean ante la gran cantidad de información que ahora mismo tiene internet. 
Este tipo de Web no tiene todavía una tecnología fija, pero parece que todos los caminos apuntan a SPARQL, el cual permite la creación de un lenguaje estandarizado y una API de desarrollo para la búsqueda de datos en internet. Esto supondría el remplazo de otros formatos en los que se publica con la Web 2.0 como XML o RDF.
 Como se puede observar, pasado, presente y futuro.
Hemos conocido las web 1.0 hasta no hace mucho tiempo. Conocemos de buena mano las 2.0 en medios como este mismo blog, ¿y las web 3.0?
Existen actualmente varios buscadores semánticos que comienzan a implementar este sistema. Uno de los más conocidos es Wolframa. Para hacer una prueba de este buscador, es tan sencillo como buscar (hay que hacerlo en inglés, no está todavía disponible en español)

web 4.0: la red móvil.

a partir de la proliferación de la comunicación inalámbrica, personas y objetos se conectan en cualquier momento y en cualquier lugar del mundo físico o virtual. o sea, integración en tiempo real. con más "objetos" en la red, se suma un nuevo nivel de contenido generado por los usuarios, y con él, otro nivel de análisis. por ejemplo, el gps que guía al automóvil y hoy ayuda al conductor a mejorar la ruta prevista o a ahorrar combustible, en poco tiempo le evitará el trámite de manejarlo.

web 5.0: la red sensorial-emotiva. 
aunque un blog provoque un debate furioso o un vídeo en youtube genere una reacción en cadena, la web es "emocionalmente" neutra: no percibe qué siente el usuario. según kambil, aunque las emociones siguen siendo difíciles de "mapear", ya existen tecnologías que permiten medir sus efectos. el sitio wefeelfine.org rastrea frases emotivas en la web, las categoriza, y registra la frecuencia y ubicación de "clusters" de sentimientos. la empresa emotiv systems ha creado, neuro tecnología mediante, auriculares que permiten al usuario interactuar con el contenido que responda a sus emociones o cambiar en tiempo real la expresión facial de un "avatar". si se pueden "personalizar" las interacciones para crear experiencias que emocionen a los usuarios, la web 5.0 será, sin duda, más afable que sus antecesoras. y más manipuladora:

SEGURIDAD INFORMÁTICA 

Conceptos básicos 
La seguridad informática, también conocida como ciberseguridad o seguridad de tecnologías de la información, es el área relacionada con la informática y la telemática que se enfoca en la protección de la infraestructura computacional y todo lo relacionado con esta y, especialmente, la información contenida en una computadora o circulante a través de las redes de computadoras.1​ Para ello existen una serie de estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para minimizar los posibles riesgos a la infraestructura o a la información. La ciberseguridad comprende software (bases de datosmetadatosarchivos), hardwareredes de computadoras y todo lo que la organización valore y signifique un riesgo si esta información confidencial llega a manos de otras personas, convirtiéndose, por ejemplo, en información privilegiada.
La definición de seguridad de la información no debe ser confundida con la de «seguridad informática», ya que esta última solo se encarga de la seguridad en el medio informático, pero la información puede encontrarse en diferentes medios o formas, y no solo en medios informáticos.
La seguridad informática es la disciplina que se encarga de diseñar las normas, procedimientos, métodos y técnicas destinados a conseguir un sistema de información seguro y confiable.
Puesto simple, la seguridad en un ambiente de red es la habilidad de identificar y eliminar vulnerabilidades. Una definición general de seguridad debe también poner atención a la necesidad de salvaguardar la ventaja organizacional, incluyendo información y equipos físicos, tales como los mismos computadores. Nadie a cargo de seguridad debe determinar quién y cuándo puede tomar acciones apropiadas sobre un ítem en específico. Cuando se trata de la seguridad de una compañía, lo que es apropiado varía de organización en organización. Independientemente, cualquier compañía con una red debe tener una política de seguridad que se dirija a la conveniencia y la coordinación.

Virus informático
Un virus es un software que tiene por objetivo alterar el funcionamiento normal del ordenador, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en una computadora, aunque también existen otros más inofensivos, que solo producen molestias.
Los virus informáticos tienen básicamente la función de propagarse a través de un software, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, incluso cuando el programa que lo contenía haya terminado de ejecutar. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual el proceso de replicado se completa.

HACKER 

Un hacker es alguien que descubre las debilidades de un computador o de una red informática, aunque el término puede aplicarse también a alguien con un conocimiento avanzado de computadoras y de redes informáticas. Los hackers pueden estar motivados por una multitud de razones, incluyendo fines de lucro, protesta o por el desafío. La subcultura que se ha desarrollado en torno a los hackers a menudo se refiere a la cultura underground de computadoras, pero ahora es una comunidad abierta. Aunque existen otros usos de la palabra «hacker» que no están relacionados con la seguridad informática, rara vez se utilizan en el contexto general. Están sujetos a la antigua controversia de la definición de hacker sobre el verdadero significado del término. En esta controversia, el término hacker es reclamado por los programadores, quienes argumentan que alguien que irrumpe en las computadoras se denomina «cracker»,​ sin hacer diferenciación entre los delincuentes informáticos —sombreros negros— y los expertos en seguridad informática —sombreros blancos—. Algunos hackers de sombrero blanco afirman que ellos también merecen el título de hackers, y que solo los de sombrero negro deben ser llamados crackers.

Cracker
A partir de 1980 había aparecido la cultura hacker, programadores aficionados o personas destacadas o con un importante conocimiento de informática. Estos programadores no solían estar del lado de la ilegalidad, y aunque algunos conocían técnicas para violar sistemas de seguridad, se mantenían dentro del ámbito legal. Pero con el tiempo surgieron personas que utilizando su conocimiento en informática, aprovechaban debilidades o errores de algunos sistemas informáticos y los crackeaban, es decir, burlaban el sistema de seguridad muchas veces entrando en la ilegalidad y algunos considerando estas prácticas como negativas. A estas personas se las continuó llamando hackers, por lo que alrededor de 1985 los hackers "originales" empezaron a llamarlos crackers en contraposición al término hacker, en defensa de estos últimos por el uso incorrecto del término.1​ Por ello los crackers son criticados por la mayoría de hackers, por el desprestigio que les supone ante la opinión pública y las empresas ya que muchas veces, inclusive en los medios de comunicación, no hacen diferencia entre el término hacker y cracker creando confusión sobre la definición de los mismos y aparentando un significado diferente.

Se suele referir a una persona como cracker cuando:
Mediante ingenieria inversa  realiza seriales, keygens y cracks, los cuales sirven para modificar el comportamiento, ampliar la funcionalidad del software o hardware original al que se aplican, etc. Se los suele utilizar para burlar restricciones como, por ejemplo, que un programa deje de funcionar en un determinado tiempo, o que solo funcione si es instalado desde un CD original.
Viola la seguridad de un sistema informático y toma el control de este, obtiene información, borra datos, etc.
Control total en el mundo informático.

Deep web
Se conoce como internet profunda ​, internet invisible  o internet oculta  al contenido de internet que no es indexado por los motores de búsqueda convencionales, debido a diversos factores, El término se atribuye al informático Mike Bergman  Es el opuesto al Internet superficial

La principal causa de la existencia de la internet profunda es la imposibilidad de los motores de búsqueda (Google, Yahoo, Bing, etc.) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la internet profunda esto no significaría que esta dejara de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y sólo determinados usuarios, aquellos con contraseñas o códigos especiales, pueden hacerlo.

La internet profunda no es una región prohibida o mística de internet, y la tecnología relacionada con ella por lo general no es conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recurso al que se es difícil de acceder mediante métodos comunes como los motores de búsqueda populares.

Una parte de la Internet profunda consiste en redes internas de instituciones científicas y académicas que forman la denominada Academic Invisible Web: («Internet académica invisible» por sus siglas en inglés) la cual se refiere a las bases de datos que contienen avances tecnológicos, publicaciones científicas, y material académico en general a los cuales no se pueden acceder fácilmente

Bibliografia


http://www.gadae.com/blog/tipos-de-redes-informaticas-segun-su-alcance/
http://www.areatecnologia.com/redes-informaticas.htm
http://es.ccm.net/contents/256-topologia-de-red
https://la.axn.com/especial/los-10-hackers-mas-famosos-del-mundo

Comentarios

Entradas populares de este blog

GLOSARIO TEORÍA GENERAL DE SISTEMA

Universidad de Córdoba

Dispositivos de procesamiento