Mas de teleinformatica...

para los que quieren aprender y copiar algo mas... xD

La Calidad de Servicio (QoS, Quality of Service) es el efecto colectivo del desempeño de un servicio, el cual determina el grado de satisfacción a la aplicación de un usuario. Para que en una red pueda ofrecer el manejo de QoS extremo-a-extremo (end2end), es necesario que todos los nodos o puntos de interconexión por los que viaje el paquete de información, posean mecanismos de QoS que ofrezcan un desempeño adecuado a la aplicación en cuestión . Los puntos de interconexión por los que pasa la información son los enrutadores, conmutadores, incluso los puntos de acceso al servicio (SAPs, Service Access Points) entre las capas del modelo (o stack) de comunicación que se use. Cuando se establece una conexión con un nivel de QoS especificado, los parámetros de éste se traducen y negocian entre los diferentes subsistemas involucrados. Solamente cuando todos los subsistemas han llegado a acuerdos y pueden otorgar garantías respecto a los parámetros especificados, será que se satisfagan los requerimientos de QoS de extremo a extremo.


-¿Qué significan las siglas LANIC?
LANIC son las siglas de Latin American Network Information Center de la University of Texas.

-¿Cuál es la misión de LANIC?
La misión de LANIC es brindar a los usuarios acceso a los servicios de información y a las bases de datos académicos ubicados por todo Internet y brindar a los latinoamericanistas de cualquier parte del mundo acceso a información relacionada con Latinoamérica y proveniente de la misma.


-¿Qué tipo de información se puede encontrar en LANIC?
Una de las funciones principales de LANIC es crear y mantener índices, o guías, de los recursos que existen en Internet en el campo de los estudios latinoamericanos. Empezamos a ofrecer nuestros servicios de índices en 1992 cuando, mediante Gopher, pusimos en funcionamiento el primer índice latinoamericano en Internet. Actualmente, en los índices de LANIC se encuentran páginas correspondientes a 35 países y 49 materias.


-Actualmente, nuestros índices de la World Wide Web:

•Contienen más de 12.000 URL que llevan a sitios y páginas Web, listservs, Usenet Newsgroups, etc., cada uno evaluado y catalogado por el personal de LANIC.
•La estructura de nuestros índices está dispuesta por País (por ejemplo, Colombia o México) y por Materia (por ejemplo, Arte o Medio Ambiente).
•Constantemente se añaden nuevos enlaces a los índices para mantenerlos actualizados. Si desea obtener una lista de los enlaces que se han añadido recientemente, consulte Novedades.
•Contiene enlaces a recursos tanto locales como de otros sitios.
Además, LANIC aloja otros recursos informativos, entre ellos: Proyectos Conjuntos, Bases de Datos y Publicaciones Electrónicas.


-¿Cuáles son las bases de datos y los proyectos conjuntos que están alojados en LANIC?
A través de una serie de convenios de colaboracián, en LANIC brindamos asistencia técnica y lugar en nuestros servidores a instituciones y organizaciones latinoamericanas con contenido informativo de interés para latinoamericanistas que desean tener una presencia en Internet basada en EE.UU. En LANIC contamos con Normas Editoriales, las cuales puede obtener todo aquel que desee alojar su información en nuestro sitio. La información que alojamos puede estar en forma de base de datos, publicación periódica o contenido informativo en general. Se negocia un convenio bilateral específico en cada caso por separado.
Las instituciones que han celebrado convenios con LANIC para alojar su información en nuestros servidores incluyen:

•SELA Sistema Económico Latinoamericano
•LARRP Latin Americanist Research Resources Project
•CLACSO Consejo Latinoamericano de Ciencias Sociales
•LASA Latin American Studies Association

RENATA es la red de tecnología avanzada que conecta, comunica y propicia la colaboración entre la comunidad académica y científica de Colombia con la comunidad académica internacional y los centros de investigación más desarrollados del mundo.

El gran valor agregado de RENATA radica en el poder de comunicación y colaboración entre sus miembros. Nuestra labor se rige por los principios de colaboración, innovación, desarrollo tecnológico y calidad del servicio.

RENATA es administrada por la Corporación RENATA, de la cual son miembros las Redes Académicas Regionales, el Ministerio de Comunicaciones, el Ministerio de Educación y Colciencias.

Nuestro reto es convertirnos en el sistema nervioso digital que interconecte e incluya a todas las instituciones académicas y científicas del país, para fortalecer el desarrollo de la ciencia, la tecnología y la innovación en beneficio del progreso de Colombia.


Objetivos de RENATA

-Ofrecer un servicio de conectividad de alta calidad usando tecnologías avanzadas.
-Consolidar una red nacional con el mayor número de instituciones académicas y de . investigación que hagan uso efectivo de la red.
-Facilitar y promover el intercambio eficiente de información y comunicaciones, así como el trabajo colaborativo entre las instituciones nacionales e internacionales.
-Estimular la ejecución de proyectos de educación, investigación y desarrollo que contribuyan a la competitividad y el progreso del país.
-Identificar necesidades de herramientas, productos y servicios comunes a sus miembros y hacer la gestión respectiva, optimizando costos y esfuerzos para su implementación.


PARA CONOCER MAS DE ESTA RED PULSA EN EL SIGUIENTE ENLACE:
http://www.renata.edu.co/index.php/quienes-somos-identidad-y-objetivos-de-renata.html?start=2


LEY 1341 DE 2009

(julio 30)

por la cual se definen principios y conceptos sobre la sociedad de la información y la organización de las Tecnologías de la Información y las Comunicaciones –TIC–, se crea la Agencia Nacional de Espectro y se dictan otras disposiciones.

El Congreso de Colombia

DECRETA:

T I T U L O I

DISPOSICIONES GENERALES

CAPITULO I

Principios generales

Artículo 1°. Objeto. La presente ley determina el marco general para la formulación de las políticas públicas que regirán el sector de las Tecnolo­gías de la Información y las Comunicaciones, su ordenamiento general, el régimen de competencia, la protección al usuario, así como lo concerniente a la cobertura, la calidad del servicio, la promoción de la inversión en el sector y el desarrollo de estas tecnologías, el uso eficiente de las redes y del espectro radioeléctrico, así como las potestades del Estado en relación con la planeación, la gestión, la administración adecuada y eficiente de los recursos, regulación, control y vigilancia del mismo y facilitando el libre acceso y sin discriminación de los habitantes del territorio nacional a la Sociedad de la Información.

Parágrafo. El servicio de televisión y el servicio postal continuarán rigién­dose por las normas especiales pertinentes, con las excepciones específicas que contenga la presente ley.

Sin perjuicio de la aplicación de los principios generales del derecho.


SI QUIERES LEER MAS ACERCA DE ESTA LEY CLIQUEA EL SIGUIENTE ENLACE:
http://www.mij.gov.co/normas/2009/l13412009.htm

Netcat es una de las herramientas más potentes y flexibles que existen en el campo de la programación, depuración, análisis y manipulación de redes y servicios TCP/IP. Es un recurso imprescindible tanto para expertos en seguridad de redes como para hackers. Esta receta incluye varios ejemplos de uso de GNU netcat.

Aunque netcat puede hacer muchas cosas, su función principal es muy simple:

1. Crea un socket con el destino indicado si es cliente, o en el puerto indicado, si es servidor
2. Una vez conectado, envía por el socket todo lo que llegue en su entrada estándar y envía a su salida estándar todo lo que llegue por el socket
Algo tan simple resulta ser extraordinariamente potente y flexible como vas a ver e continuación. Por simplicidad se utilizan conexiones locales aunque, por supuesto, se pueden utilizar entre máquinas diferentes.

Todos los usuarios de Windows sabemos que nuestro sistema operativo está plagado de agujeros hasta que un parche demuestre lo contrario. Las actualizaciones de Microsoft lo suelen solucionar, pero puede que no estemos atentos al aviso o puede incluso que ese aviso no llegue.

Este sencillo programa repasa la configuración de nuestro Windows y señala sus deficiencias en cuanto a seguridad, o sea, por dónde se te podrían infiltrar toda de suerte de peligros. Además, genera un informe en formato HTML para que lo leas con tranquilidad.

Por lo demás, los enlaces junto a la descripción de los puntos débiles te llevarán normalmente al boletín de seguridad de Microsoft donde solucionar el problema. Así que quedará en tus manos la extinción de las brasas antes de que se inicie el incendio.

Datos Tecnicos

Idioma: Todos
Plataforma: 2000,xp, 2003

size: 1578 kb.

descarga:




La criptología, objeto del presente monográfico, abarca dos grandes y complejas áreas de gran trascendencia hoy en día: la criptografía y el criptoanálisis. La primera persigue la consecución de esquemas y mecanismos de cifrado seguros que codifiquen la información a transmitir o almacenar mientras que la segunda trata de encontrar sistemas para descifrarlos sin el necesario conocimiento de clave alguna.

La criptología es tan antigua como el hombre (no obstante, uno de los primeros ejemplos documentados de criptología escrita data de hace unos 1900 años (antes de Cristo) en Egipto). Los secretos sobre otros han sido siempre sinónimos de poder. La criptografía inicialmente fue contemplada más como un arte que como una ciencia y permitía validar cuando el criptoanálisis era todavía una tarea manual y laboriosa.

La esteganografía posibilita ocultar mensajes secretos sobre textos con diferente significado. Con el tiempo, la electrónica, los computadores convierten al criptoanálisis en una tecnología más rápida y eficaz. Los criptosistemas clásicos, que habían sido incuestionables, dejaron de tener valor. Se inventa el DES (FIPS PUB-46, IBM-NSA/US), que requiere que emisor y receptor compartan una clave secreta. La comunicación de claves secretas a través de líneas interceptadas se hace imposible.

Como respuesta en 1976 W. Diffie y M. Hellman introducen el enfoque de la criptografía de clave pública y en 1978 R.L. Rivest, A. Shamir y L.M. Adleman publican en la Revista Communications of the ACM el algoritmo RSA. La informática simplifica la gestión administrativa. La telemática elimina distancias y tiempo. La sociedad exige el uso de técnicas de protección de los secretos comunicados y almacenados utilizando medios digitales. La criptografía sale a la sociedad, se escapa de los entornos privados de los gobiernos y fuerzas armadas. Se desarrollan técnicas, métodos y protocolos para ofrecer a los documentos y comunicaciones digitales la seguridad de sus equivalentes analógicos (documentos manuscritos, conversaciones telefónicas analógicas, etc.) fáciles de interceptar pero difíciles de suplantar.

La sociedad entra en un ciclo irreversible de desconfianza, trampas, crimen, terrorismo, etc. y la criptografía ha tenido que inventar protocolos de seguridad para contrarrestar muy diversos tipos de ataques, fraudes, robos de información, suplantación de autoría en las comunicaciones telemáticas, etc.

La criptografía acomete la tarea de construcción de esquemas robustos contra intentos malignos de que dichos esquemas se desvíen de su funcionalidad prescrita. Dada una funcionalidad deseada, un criptografo debe ser capaz de diseñar un esquema que no sólo satisfaga la funcionalidad deseada bajo un funcionamiento normal sino que además mantenga dicha funcionalidad de cara a posibles intentos de adversarios que se desarrollen después de que el criptografo haya finalizado su trabajo.

El hecho de que un adversario idee su ataque después de que el esquema se ha especificado hace muy difícil el diseño de dichos esquemas. En particular, el adversario intentará tomar acciones diferentes de las que ha previsto el diseñador. De este modo, el planteamiento resultante es que tiene poco sentido realizar hipótesis acerca de la estrategia específica que puede utilizar el adversario. La única hipótesis que puede estar justificada se refiere a las capacidades computacionales del adversario. Por otra parte, el diseño de los sistemas criptográficos debe estar basado en bases firmes, de modo que los enfoques ad hoc y heurísticos son peligrosos.

Un enfoque heurístico puede tener sentido cuando el diseñador tiene una buena idea acerca del entorno en el que opera el esquema. Los esquemas criptográficos tienen que operar sobre entornos que trascienden normalmente la visión del diseñador, a pesar de que se hayan seleccionado situaciones muy adversas.

El proporcionar bases firmes a la criptografía ha sido el planteamiento de investigación principal en las dos últimas décadas. De hecho, el artículo pionero de Diffie-Hellman se considera el iniciador de este planteamiento. Las dos actividades más importantes han sido:

(a) La relacionada con las definiciones, en la que se ha identificado, conceptualizado y especificado con rigor las tareas criptográficas que cubren los aspectos de seguridad, proporcionando una definición del cifrado seguro. La actividad relativa a las definiciones ha identificado conceptos que antes no se conocían, uno de los ejemplos es la introducción de las pruebas de conocimiento cero. El paradigma de la simulación desempeña un papel importante en las definiciones relativas a computaciones multiparte seguras.

(b) La relacionada con las construcciones, en la que se estudian y diseñan los esquemas criptográficos que satisfacen las definiciones. Se trata de demostrar lo plausible de obtener objetivos ciertos. De este modo, la hipótesis estándar de que RSA es difícil de invertir se utilizó para construir esquemas de cifrado de clave pública seguros y esquemas de firma digital no falsificables. El desafío del diseñador no son sólo los atacantes malignos ó los no intencionados (que sus descuidos pueden ser lesivos) sino los matemáticos y los computadores, que con sus avances teóricos y de prestaciones, ponen en duda para un futuro la seguridad de métodos que fueron ó se consideran hoy día seguros.

Por su parte, el criptoanálisis, que comienza siendo un arte, es hoy en día una ciencia/tecnología que persigue descifrar las informaciones (transferidas ó almacenadas) que se encuentran cifrada sin necesidad de conocer la(s) clave(s) correspondientes. Han ido apareciendo muy diversas técnicas para llevar a cabo el criptoanálisis (mediante computadores, redes de supercomputa-dores, circuitería electrónica ASIC, etc.).

Algunas de las más importantes de cara a los implementadores de sistemas son:
1. Ataques sólo al texto cifrado.
2. Ataques a texto sin cifrar conocido.
3. Ataques a texto sin cifrar elegido.
4. Ataques del intruso intermedio.
5. Ataques basados en medidas de tiempos de ejecución. etc..

Existen diferentes retos sobre el uso de la criptografía, por ejemplo: (a) Para los técnicos:(1) Simplificar los métodos a la medida del valor de los secretos; (2) Resolver el conflicto Estado-sociedad. Los gobiernos desean conocer las claves criptográficas (por razones muy diversas: defenderse contra el terrorismo, seguridad nacional, velar ante posibles robos, destrucciones, olvidos, desapariciones,... de claves que puedan crear problemas de grandes dimensiones). ¿Puede hablarse de una amenaza al estilo del "Gran Hermano" de Orwell? Parece ser que no existe solución técnica satisfactoria, la solución quizás no sea de índole técnica sino política y humanística. (b) Para los filósofos y políticos: Devolver a la sociedad un grado cuasi angélico de confianza mutua interpersonal. Todas las complejas técnicas criptográficas dan por hecho que todos tenemos grandes secretos y que vivimos en una sociedad hipotética con absoluta desconfianza generalizada.

2. descripción

En este documento sobre Cristología incluimos algunos artículos de interés relacionados con estos temas.
Se introducen los mecanismos de cifrado de flujo basados en registros desplazamiento realimentados no linealmente que mejoran de forma significativa las prestaciones de los desarrollos clásicos con realimentación lineal. El problema de la autentificación de usuarios en las comunicaciones electrónicas requiere obtener la identidad de los usuarios con alto grado de fiabilidad. El estándar X.500/ITU-T y el PGP nos lo ofrecen con complejidad y limitaciones.
Se ofrecen dos nuevos acercamientos al problema. El mismo problema está relacionado con la seguridad en el Comercio Electrónico
Dada la variedad de documentos digitales, informáticos, imágenes, etc. es necesario desarrollar métodos que aseguren y protejan a los autores de los mismos contra el pirateo. Se presenta un esquema original para la protección del copyright electrónico. La criptografía busca nuevos métodos que sean resistentes a la violación matemática. Hay muchos desarrollos e investigaciones al respecto. Además de las curvas elípticas e hiperbólicas, la criptografía cuántica y otros métodos matemáticos. Existe una extensión de los abandonados "métodos de mochila" que ofrece posibilidades.
Además se presenta cómo la criptografía se integra en la última versión del protocolo IP (IPv6) para permitir servicios de seguridad en entornos Internet/Intranet/Extranet.



3. Algunas fuentes de información: direcciones web (URLs) de interés en criptología

http://www.chrysalis-its.com/ - Soluciones de cifrado hardware. Chrysalis-ITS
http.//www.achiever.com/freehmpg/cryptology/ - De la A a la Z en Criptología
http.//einstein.et.tudelft.nl/~arlet/puzzles/crytology.html - Cifradores Feynman
http://dmawww.epfl.ch/~steffen/ - Teoría de números. Criptología.
http://www.oberlin.edu/~brchkind/cyphernomicon/5.html - Criptología.
http://www.jar.net/ - Sobre Privacidad
http://www.ktt.fr/ - Productos sobre Seguridad/Criptología de Henry Kam Technologies & Telecommunication
http://www.cs.ruu.nl/wais/html...r/cryptography-faq/ - Sobre Criptografía
http:// www.maa.org/pubs/books/Crypt.html - Envío de Mensajes Secretos. Descifrar códigos
http://www.swcp.com/~mccurley ...reedom_and_ responsibility.html - Consecuencias de la publicación de investigaciones en el área de la criptografía
http://www.rediris.es/cert - CERT y Seguridad de RedIRIS/CSIC
http://www.ifi.uio.no/pgp/ - Página sobre el PGP
http://src.doc.ic.ac.uk/public/packages/Karlsruhe/Theory/cryypto.html



Network Magic es una utilidad hecha para todas aquellas personas que necesiten crear una red con los ordenadores del hogar o la oficina. Lo bueno de usar este programa es que no se necesitan conocimientos técnicos acerca del manejo de redes, ni nada por el estilo, pues el programa hace todo automáticamente.

Network Magic configurará los recursos de una red inalámbrica en apenas unos minutos. Al mismo tiempo, brindará las herramientas de gestión suficientes como para administrar los recursos de la red, y hasta para detectar si hay usuarios no autorizados en ella.

El programa ofrece la flexibilidad suficiente como para compartir recursos de la red: ficheros, carpetas, impresoras, etc. También puedes pedirle al programa que haga informes con las estadísticas de uso.


Sistemas de gestión de seguridad de la información

Actualmente hablar de la información es hablar de uno de los activos más importantes para las organizaciones -cualquiera que sea su negocio-, ya que ésta conduce y fija muchos de sus procesos críticos.

Debido al gran valor de la información y al gran impacto que tiene sobre las organizaciones el riesgo en su integridad, la ISO ha desarrollado un conjunto de normas que ayuda a las empresas a gestionar sus activos de información, con el fin de garantizar la continuidad del negocio y la eficiencia de sus procesos.

En el ámbito mundial, las normas ISO/IEC 27001 Sistemas de gestión de seguridad de la información -SGSI-, y la ISO/IEC 27002 Código de práctica para la gestión de la seguridad de la información son los referentes de aplicación de las mejores prácticas en la materia.



Las normas ISO/IEC 27001, 27002 y su estructura

Para el cumplimiento de las directrices de la norma ISO/IEC 27001, las organizaciones deben cumplir los numerales 4 al 8 descritos en la norma, los cuales hacen referencia a: requisitos generales, establecimiento del SGSI, implementación y operación del SGSI, seguimiento y revisión del SGSI, mantenimiento y mejora del SGSI, requisitos de documentación exigidos por la norma, responsabilidad de la dirección, gestión de los recursos, auditorías internas, revisión por la dirección y mejora continua del SGSI.

Adicionalmente las organizaciones deben implementar los objetivos de control y los controles descritos en los numerales 5 al 15 de la ISO/IEC 27002, que cumplan los requisitos identificados en el proceso de valoración y tratamiento de riesgos.

Esta norma está dividida en once dominios de control, 39 objetivos y 133 controles. Los dominios presentados abarcan: política de seguridad, organización de la seguridad de la información, gestión de activos, control de acceso, seguridad de los recursos humanos, cumplimiento, seguridad física y del entorno, adquisición, desarrollo y mantenimiento de sistemas de información, gestión de las comunicaciones y operaciones, gestión de la continuidad del negocio y gestión de incidentes de seguridad de la información.

De esta manera, la ISO/IEC 27001 y la ISO/IEC 27002 se convierten en el pilar de normas para la seguridad de la información.




La certificación ICONTEC ISO/IEC 27001 permite

-Prevenir o reducir eficazmente el nivel de riesgo, mediante la implantación de los controles adecuados; de este modo, prepara a la organización ante posibles emergencias y garantiza la continuidad del negocio.

-Diseñar una herramienta para la implementación del sistema de gestión de seguridad de la información teniendo en cuenta la política, la estructura organizativa, los procedimientos y los recursos.

-A la dirección, gestionar las políticas y los objetivos de seguridad en términos de integridad, confidencialidad y disponibilidad.

-Incrementa el nivel de concientización del personal respecto a los tópicos de seguridad informática.

1. linux

Se trata de un sistema operativo de 32 bits de libre distribución, desarrollado originalmente por Linus Torvalds, un estudiante de la universidad finlandesa de Helsinki, quien, en 1991, se abocó a la tarea de reemplazar a Minix, un clon de Unix de pequeñas proporciones y finalidad académica desarrollado años antes por Andrew Tannenbaun.

A medida que avanzaba en su desarrollo, Linus fue dejando el código fuente de las sucesivas versiones del kernel y utilidades de Linux a disponibilidad de los usuarios de Internet. Este fue sin duda un gran acierto, ya que hizo posible que una multitud de desarrolladores de todo el mundo se familiarizaran con el código, lo cual en primera instancia significó un gran aporte de sugerencias, evolucionado luego hacia un espectacular ejemplo de desarrollo distribuido de software: centenares de desarrolladores independientes, desde diferentes puntos del planeta tomaron a su cargo la producción de software para Linux, ya sea escribiéndolo desde cero o portándolo desde otras plataformas Unix. Esta modalidad de desarrollo continua aún hoy y ha permitido a Linux alcanzar un alto nivel de desarrollo y madurez, así también como un amplio grado de aceptación.

Este Software se obtiene de una conexión eficiente y segura a la Internet (y de una buena cuota de paciencia), un paquete Linux completo (kernel + utilidades + aplicaciones) puede obtenerse gratuitamente de muchos servidores FTP públicos; el único costo será en este caso el costo de la conexión a la Internet.


Conectividad


Linux ofrece una variada gama de posibilidades a la hora de interconectarse con otros servidores.

Como es usual en plataformas Unix, Linux cuenta con soporte nativo de TCP/IP, incluyendo la capacidad para actuar como cliente o servidor NFS (Network File System).

El kernel incluye soporte para IPX, lo que le permite funcionar como ruteador en redes Novell; incluso es posible configurar un sistema Linux para aparentar ser un servidor Novell 3.11 y permitir a clientes DOS mapear directorios y utilizar impresoras utilizando el shell y comandos standard de Novell (NETx y CAPTURE). También es posible montar en el file system de una máquina Linux volúmenes de un servidor Novell y acceder a sus colas de impresión.

Por medio de la utilización del paquete Samba, Linux puede interactuar con servidores Windows NT y estaciones Windows For Workgroups y Windows95. Esto incluye la capacidad para acceder desde Linux a recursos compartidos desde maquinas Windows (directorios e impresoras), como también la posibilidad de exportar directorios e impresoras desde Linux y accederlas desde Windows.













2. Ubuntu


¿Qué significa Ubuntu?
Ubuntu es una palabra africana que significa 'Humanidad para los otros', o 'Soy lo que soy por lo que somos todos'. La distribución Ubuntu trae el espíritu de Ubuntu al mundo del software.

Ubuntu es un sistema operativo desarrollado por una comunidad perfecto para laptops, escritorios y servidores. Así lo utilices en casa, en la escuela o en el trabajo, Ubuntu contiene todas las aplicaciones que necesitarás, desde procesadores de texto y aplicaciones de email, hasta software de servidor web y herramientas de programación.
Ubuntu es y será siempre gratis. No pagás nada por licencias. Podés descargar, usar y compartir Ubuntu con tus amigos, familia, escuela o negocio por absolutamente nada.
Cada seis meses se lanza una nueva versión del escritorio y del servidor. Esto significa que siempre tendrás las últimas y las mejores aplicaciones que el código abierto tiene para ofrecer.
Ubuntu está diseñado pensando en la seguridad. Obtenés actualizaciones de seguridad por al menos 18 meses para el escritorio y el servidor. Con la versión con Soporte a Largo Plazo (LTS, Long Term Support) obtenés tres años de soporte para el escritorio, y cinco años para el servidor. No hay un pago extra por la versión LTS, está disponible para todos bajo los mismos términos libres. Actualizaciones hacia nuevas versiones de Ubuntu son y serán siempre gratis.
Todo lo que necesitás en un CD, el cual provee un completo entorno de trabajo. Software adicional esta disponible online.

El instalador gráfico te permite correrlo rápidamente y de manera sencilla. Una instalación estándar toma menos de 25 minutos.
Una vez instalado tu sistema está automáticamente listo para usarse. En el escritorio tendrás un juego completo de aplicaciones de productividad, internet, dibujo y gráfica, juegos.
En la versión servidor tenés todo lo que necesitás para usar tu PC como servidor en una red. Simplemente con instalarlo, tendrás ya por defecto todo el software requerido para un servidor.









Los componentes necesarios para la construcción de una red Ethernet o 10/100/1000BASE T con cableado estructurado son:
EL Cable:
Par trenzado de 8 hilos UTP, FTP o STP, Categoría 5, 5e, 6 o 7 recubierto de un protector de PVC.
En lo relacionado a la protección contra interferencias eléctricas y magnéticas tenemos las siguientes opciones y características del cable:

UTP - Unshielded Twisted Pair (pares trenzados sin pantalla o blindaje)
STP - Shielded Twisted Pair (blindajes individuales para cada par trenzado)
FTP - Foiled Twisted Pair (con pantalla o blindaje alrededor de todos los pares)

Otras opciones menos conocidas son el ScTP (Screened Twister Pair, como el STP pero en 4 hilos) y el SSTP (Shielded- Screened Twisted Pair)
Referente a la velocidad de transmisión tenemos las siguientes categorías de cableado:

Categoría 1 - Cable UTP para voz (Velocidad 16 Kbps)
Categoría 2 - Cable UTP para datos (Velocidad 4 Mbps)
Categoría 3 - Cable UTP o STP para datos (Velocidad 10 Mbps)
Categoría 4 - Cable UTP o STP para datos (Velocidad 16 Mbps)
Categoría 5 - Cable UTP o STP para datos (Velocidad 100 Mbps)
Categoría 5e - Cable UTP o STP para datos (Velocidad 200 Mbps)
Categoría 6 - Cable UTP o STP para datos (Velocidad 1Gbps)
Categoría 7 - Cable UTP o STP para datos (Velocidad 10 Gbps)

Conectores:

RJ45 (Registered Jack-45)
Esquema de conexión de los pares del cable y conector según la norma europea ISO/IEC 11801 y la americana EIA/TIA 568B (AT&T 258A) y para el par cruzado según la norma EIA/TIA 568A

EIA - Electronic Industries Alliance.
TIA - Telecommunications Industry Association
AT&T - American Telephone and Telegraph
ISO - International Standards Organization
IEC - International Electrotechnical Commission


NORMA EIA/TIA 568 B




NOTA: Ambos extremos del cable montados de la misma manera. El HUB o SWITCH se encarga de cruzar la señal para que la Transmisión llegue a la recepción correspondiente.
NORMA EIA/TIA 568 A (Cruzado)


NOTA: Uno de los extremos se monta según la norma EIA/TIA 568 B y el otro extremo según la norma EIA/TIA 568 A. Este tipo de cables se utiliza para unir dos equipos directamente a través de sus correspondientes tarjetas de red o dos Hubs/switch que no dispongan de Uplink.



Testar los cables montados:
Una vez montado el cable conviene testarlo para comprobar su correcto funcionamiento. Para testar los cables podemos utilizar un testeador profesional que nos indica si hay comunicación entre los pares.

En el caso de no disponer de un testeador podemos testar los cables conectándolo a la tarjeta de red y al Hub/switch. Si ambas luces de Testigo (Link) se encienden el cable esta preparado para funcionar, aunque no se puede asegurar que el cable rinda al máximo.

bueno... aca les dejo un importante documento sobre computaciony sus avances... espero les guste...


MillonFace
publicó un artículo y fotografías de lo que podría ser algún día el dispositivo que dejará obsoletas a las computadoras portátiles. Ya tienen un rato dandole vueltas al mundo, pero siguen siendo interesantes.
Esta tecnología proviene de Japón y a simple vista los dispositivos parecieran ser solamente plumas de escritorio. En realidad son mucho más que eso. Poseen proyectores integrados que a la vista parecen simples cámaras.
A continuación fotos para dejar impresionado a cualquiera.

Se trata de computadoras miniaturizadas que utilizan la tecnología Bluetooth. Si. Computadoras. Utilizan una tecnología sumamente avanzada pues proyectan a través de un láser un teclado completamente funcional sobre la mesa y una pantalla interactiva sobre la pared.