Que es un nodo
En informática, de forma muy general, un nodo es un punto de intersección o unión de varios elementos que confluyen en el mismo lugar. Ahora bien, dentro de la informática la palabra nodo puede referirse a conceptos diferentes según en ámbito en el que nos movamos:
En redes de computadoras cada una de las máquinas es un nodo, y si la red es Internet, cada servidor constituye también un nodo.
En estructuras de datos dinámicas un nodo es un registro que contiene un dato de interés y al menos un puntero para referenciar (apuntar) a otro nodo. Si la estructura tiene sólo un puntero, la única estructura que se puede construir con el es una lista, si el nodo tiene más de un puntero ya se pueden construir estructuras más complejas como árboles o grafos.
sábado, 28 de febrero de 2009
DONDE SE ENCUENTRAN LAS SUPERCOMPUTADORAS
Donde se encuentran las supercomputadora
Ya estaban fuera de la clasificación de las 500 más poderosas del planeta las supercomputadoras mexicanas, pero como prometió el director comercial del integrador mexicano Lufac, Carlos Almaráz, regresarían a las grandes ligas con una máquina de la Universidad Autónoma Metropolitana (UAM). Y así fue.
De México, muchas supercomputadoras han llegado a estar incluidas en el ranking, dos de ellas muy conocidas internacionalmente: Kam Balam, la otrora más poderosa del país, y la del sistema de Banco Azteca. Pero los tiempos cuando éstas ocupaban lugares importantes han quedado atrás.
En junio de 2007 fue la última vez que supercomputadoras mexicanas fueron incluidas en la clasificación con la Cluster Platform 4000 DL 145, Opteron Dual Core 2.6 GHz Infiniband; y con la Integrity Superdome, con Itanium2 DC 1.6 GHz HyperPlex, ambas de Hewlett Packard, con las posiciones 310 y 393 respectivamente.
El lunes la organización Top500 dio a conocer que la máquina que tiene por nombre Aitzaloa, propiedad de la UAM, ocupa la posición 226. Almaráz prometió que estaría dentro de las 100 primeras de la clasificación, pero la supercomputadora de la UAM se ubicó justo a la mitad de la lista. La sede de la UAM donde se encuentra el cluster fue registrada como ‘Supercomputing and Visualization in Paralel Laboratory’.
Ya estaban fuera de la clasificación de las 500 más poderosas del planeta las supercomputadoras mexicanas, pero como prometió el director comercial del integrador mexicano Lufac, Carlos Almaráz, regresarían a las grandes ligas con una máquina de la Universidad Autónoma Metropolitana (UAM). Y así fue.
De México, muchas supercomputadoras han llegado a estar incluidas en el ranking, dos de ellas muy conocidas internacionalmente: Kam Balam, la otrora más poderosa del país, y la del sistema de Banco Azteca. Pero los tiempos cuando éstas ocupaban lugares importantes han quedado atrás.
En junio de 2007 fue la última vez que supercomputadoras mexicanas fueron incluidas en la clasificación con la Cluster Platform 4000 DL 145, Opteron Dual Core 2.6 GHz Infiniband; y con la Integrity Superdome, con Itanium2 DC 1.6 GHz HyperPlex, ambas de Hewlett Packard, con las posiciones 310 y 393 respectivamente.
El lunes la organización Top500 dio a conocer que la máquina que tiene por nombre Aitzaloa, propiedad de la UAM, ocupa la posición 226. Almaráz prometió que estaría dentro de las 100 primeras de la clasificación, pero la supercomputadora de la UAM se ubicó justo a la mitad de la lista. La sede de la UAM donde se encuentra el cluster fue registrada como ‘Supercomputing and Visualization in Paralel Laboratory’.
WWW
Www
En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado
En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado
HTTP
Http
El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1.
HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.
El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1.
HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como "user agent" (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.
HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookies, que es información que un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de "sesión", y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.
UN NIC
Que es un nic
El NIC (Network Information Center) es la autoridad que delega los nombres de dominio a quienes los solicitan. Cada país en el mundo (o propiamente dicho cada Top-Level Domain o TLD) cuenta con una autoridad que registra los nombres bajo su jurisdicción. Por autoridad no nos referimos a una dependencia de un gobierno, muchos NIC´s en el mundo son operados por universidades o compañías privadas. En otras palabras, el NIC es quien se encarga de registrar los dominios de un país. Por ejemplo, México cuenta con su NIC que se encarga de registrar los dominios bajo .mx. Generalmente los NIC´s cobran una cuota de mantenimiento anual por cada dominio registrado. Cada organización elige el precio por mantenimiento que considera adecuado por sus servicios. Los NIC´s son entidades independientes a Urbano. Ver artículo: NIC´s en el Mundo
El NIC (Network Information Center) es la autoridad que delega los nombres de dominio a quienes los solicitan. Cada país en el mundo (o propiamente dicho cada Top-Level Domain o TLD) cuenta con una autoridad que registra los nombres bajo su jurisdicción. Por autoridad no nos referimos a una dependencia de un gobierno, muchos NIC´s en el mundo son operados por universidades o compañías privadas. En otras palabras, el NIC es quien se encarga de registrar los dominios de un país. Por ejemplo, México cuenta con su NIC que se encarga de registrar los dominios bajo .mx. Generalmente los NIC´s cobran una cuota de mantenimiento anual por cada dominio registrado. Cada organización elige el precio por mantenimiento que considera adecuado por sus servicios. Los NIC´s son entidades independientes a Urbano. Ver artículo: NIC´s en el Mundo
CELAYA
Celaya
http://www.celaya.gob.mx/fileadmin/comunicacion_soc/TramitesServicios/ms-cel-co-01.pdf
PAGINA DONDE VIENE LOS DOMINIOS DEL MUNICIPIO DE CELAYA
http://www.celaya.gob.mx/fileadmin/comunicacion_soc/TramitesServicios/ms-cel-co-01.pdf
PAGINA DONDE VIENE LOS DOMINIOS DEL MUNICIPIO DE CELAYA
IP VERSION 6
IP versión 6
El protocolo IPv6 es una nueva versión de IP (Internet Protocol), diseñada para reemplazar a la versión 4 (IPv4) RFC 791, actualmente en uso.
Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. Pero el nuevo estándar mejorará el servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles con sus direcciones propias y permanentes. Al día de hoy se calcula que las dos terceras partes de las direcciones que ofrece IPv4 ya están asignadas.
IPv4 posibilita 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada coche, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones) direcciones —cerca de 3,4 × 1020 (340 trillones) direcciones por cada pulgada cuadrada (6,7 × 1017 o 670 mil billones direcciones/mm2) de la superficie de La Tierra.
Propuesto por el Internet Engineering Task Force en 1994 (cuando era llamado "IP Next Generation" o IPng), la adopción de IPv6 por parte de Internet es menor, la red todavía está dominada por IPv4. La necesidad de adoptar el nuevo protocolo debido a la falta de direcciones ha sido parcialmente aliviada por el uso de la técnica NAT. Pero NAT rompe con la idea originaria de Internet donde todos pueden conectarse con todos y hace difícil o imposible el uso de algunas aplicaciones P2P, de voz sobre IP y de juegos multiusuario. Un posible factor que influya a favor de la adopción del nuevo protocolo podría ser la capacidad de ofrecer nuevos servicios, tales como la movilidad, Calidad de Servicio (QoS), privacidad, etc.
El protocolo IPv6 es una nueva versión de IP (Internet Protocol), diseñada para reemplazar a la versión 4 (IPv4) RFC 791, actualmente en uso.
Diseñado por Steve Deering de Xerox PARC y Craig Mudge, IPv6 está destinado a sustituir a IPv4, cuyo límite en el número de direcciones de red admisibles está empezando a restringir el crecimiento de Internet y su uso, especialmente en China, India, y otros países asiáticos densamente poblados. Pero el nuevo estándar mejorará el servicio globalmente; por ejemplo, proporcionará a futuras celdas telefónicas y dispositivos móviles con sus direcciones propias y permanentes. Al día de hoy se calcula que las dos terceras partes de las direcciones que ofrece IPv4 ya están asignadas.
IPv4 posibilita 4.294.967.296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada coche, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones) direcciones —cerca de 3,4 × 1020 (340 trillones) direcciones por cada pulgada cuadrada (6,7 × 1017 o 670 mil billones direcciones/mm2) de la superficie de La Tierra.
Propuesto por el Internet Engineering Task Force en 1994 (cuando era llamado "IP Next Generation" o IPng), la adopción de IPv6 por parte de Internet es menor, la red todavía está dominada por IPv4. La necesidad de adoptar el nuevo protocolo debido a la falta de direcciones ha sido parcialmente aliviada por el uso de la técnica NAT. Pero NAT rompe con la idea originaria de Internet donde todos pueden conectarse con todos y hace difícil o imposible el uso de algunas aplicaciones P2P, de voz sobre IP y de juegos multiusuario. Un posible factor que influya a favor de la adopción del nuevo protocolo podría ser la capacidad de ofrecer nuevos servicios, tales como la movilidad, Calidad de Servicio (QoS), privacidad, etc.
IP VERSION 4
IP versión 4
IPv4 es la versión 4 del Protocolo IP (Internet Protocol). Esta fue la primera versión del protocolo que se implementó extensamente, y forma la base de Internet.
IPv4 usa direcciones de 32 bits, limitándola a 232 = 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LANs). Por el crecimiento enorme que ha tenido del Internet (mucho más de lo que esperaba, cuando se diseñó IPv4), combinado con el hecho de que hay desperdicio de direcciones en muchos casos, ya hace varios años se vio que escaseaban las direcciones IPv4.
Esta limitación ayudó a estimular el impulso hacia IPv6, que esta actualmente en las primeras fases de implantación, y se espera que termine reemplazando a IPv4.
Desperdicio de direcciones
El desperdicio de direcciones IPv4 se debe a varios factores.
Uno de los principales es que inicialmente no se consideró el enorme crecimiento que iba a tener Internet; se asignaron bloques de direcciones grandes (de 16,71 millones de direcciones) a países, e incluso a empresas.
Otro motivo de desperdicio es que en la mayoría de las redes, exceptuando las más pequeñas, resulta conveniente dividir la red en subredes. Dentro de cada subred, la primera y la última dirección no son utilizables; de todos modos no siempre se utilizan todas las direcciones restantes. Por ejemplo, si en una subred se quieren acomodar 80 hosts, se necesita una subred de 128 direcciones (se tiene que redondear a la siguiente potencia de base 2); en este ejemplo, las 48 direcciones restantes ya no se utilizan.
IPv4 es la versión 4 del Protocolo IP (Internet Protocol). Esta fue la primera versión del protocolo que se implementó extensamente, y forma la base de Internet.
IPv4 usa direcciones de 32 bits, limitándola a 232 = 4.294.967.296 direcciones únicas, muchas de las cuales están dedicadas a redes locales (LANs). Por el crecimiento enorme que ha tenido del Internet (mucho más de lo que esperaba, cuando se diseñó IPv4), combinado con el hecho de que hay desperdicio de direcciones en muchos casos, ya hace varios años se vio que escaseaban las direcciones IPv4.
Esta limitación ayudó a estimular el impulso hacia IPv6, que esta actualmente en las primeras fases de implantación, y se espera que termine reemplazando a IPv4.
Desperdicio de direcciones
El desperdicio de direcciones IPv4 se debe a varios factores.
Uno de los principales es que inicialmente no se consideró el enorme crecimiento que iba a tener Internet; se asignaron bloques de direcciones grandes (de 16,71 millones de direcciones) a países, e incluso a empresas.
Otro motivo de desperdicio es que en la mayoría de las redes, exceptuando las más pequeñas, resulta conveniente dividir la red en subredes. Dentro de cada subred, la primera y la última dirección no son utilizables; de todos modos no siempre se utilizan todas las direcciones restantes. Por ejemplo, si en una subred se quieren acomodar 80 hosts, se necesita una subred de 128 direcciones (se tiene que redondear a la siguiente potencia de base 2); en este ejemplo, las 48 direcciones restantes ya no se utilizan.
TIPOS DE SUPERCOMPUTADORA
Tipos de Supercomputadoras
Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente.
Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras.
Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas.
Existen dos tipos principales de supercomputadores: máquinas de vectores y máquinas paralelas. Las dos trabajan RAPIDO, pero en forma diferente.
Digamos que tu tienes 100 problemas de matemáticas. Si tu fueras un computador de vectores, te sentarías y harías todos los problemas tu mismo tan rápido como pudieras.
Para trabajar como un computador paralelo, tu tendrías que conseguir y compartir el trabajo con sus amigos. Con 10 amigos, tu harías solo 10 problemas. Si fueran 20 amigos, cada uno solo tendría que hacer 5 problemas.
COMO SON LAS SUPERCOMPUTADORAS
¿Como Son?
Tipos de procesadores: los procesadores vectoriales operan en subconjunto de elementos de un vector con una única instrucción, mientras que los procesadores escalares han de manipularlos elemento a elemento y, por lo tanto, tiene que ejecutar una misma instrucción de manera interativa para conseguir el mismo resultado que una única instrucción vectorial.
Los procesadores superescalares pueden iniciar la ejecución simultánea de varias instrucciones escalares en paralelo de forma que pueden operar varios elementos de un vector dentro de una misma iteración.
Los procesadores en array ejecutan la misma instrucción en todos los procesadores sobre diferentes datos.
Organización de la memoria: Si la memoria está compartida entre todos los procesadores, la programación es mucho más sencilla, ya que los datos se pueden colocar en cualquier módulo de la memoria y su acceso es uniforme para todos los procesadores.
Si cada procesador tiene acceso a su propia memoria, entonces la programación es más compleja, pero tiene la ventaja de su escalabilidad, con lo que el sistema puede crecer hasta un mayor número de procesadores. Es el sistema idóneo para máquinas paralelas.
La memoria distribuida compartida combina las ventajas de ambas organizaciones: la memoria está físicamente distribuida y. por lo tanto, el sistema es escalable, pero se accede con un espacio único de direcciones y es fácilmente programable.
Tipos de procesadores: los procesadores vectoriales operan en subconjunto de elementos de un vector con una única instrucción, mientras que los procesadores escalares han de manipularlos elemento a elemento y, por lo tanto, tiene que ejecutar una misma instrucción de manera interativa para conseguir el mismo resultado que una única instrucción vectorial.
Los procesadores superescalares pueden iniciar la ejecución simultánea de varias instrucciones escalares en paralelo de forma que pueden operar varios elementos de un vector dentro de una misma iteración.
Los procesadores en array ejecutan la misma instrucción en todos los procesadores sobre diferentes datos.
Organización de la memoria: Si la memoria está compartida entre todos los procesadores, la programación es mucho más sencilla, ya que los datos se pueden colocar en cualquier módulo de la memoria y su acceso es uniforme para todos los procesadores.
Si cada procesador tiene acceso a su propia memoria, entonces la programación es más compleja, pero tiene la ventaja de su escalabilidad, con lo que el sistema puede crecer hasta un mayor número de procesadores. Es el sistema idóneo para máquinas paralelas.
La memoria distribuida compartida combina las ventajas de ambas organizaciones: la memoria está físicamente distribuida y. por lo tanto, el sistema es escalable, pero se accede con un espacio único de direcciones y es fácilmente programable.
PARA QUE SE NECESITAN LAS SUPERCOMPUTADORAS
¿Para qué se necesitan?
Una de las primeras tareas asignadas al "superordenador" de los años cuarenta, el ENIAC, no fue para un uso muy "pacífico", ya que se utilizó en los cálculos de diseño de la primera bomba. Atómica (Proyecto Manhattan), en concreto para calcular las ondas de choque de las explosiones de prueba de las bombas atómicas.
Sin la rapidez y la capacidad de cálculo de los ordenadores, algunas disciplinas se habrían "ahogado" en sus planteamientos teóricos. Tal es el caso de la física de alta energía. Hay experimentos en el CERN que hacen colisionar electrones y positrones y que producen tal cantidad de información que, sin la ayuda de un superordenador que sepa discriminar entre todos los sucesos, no se habría podido comprobar experimentalmente las ideas teóricas.
En la investigación espacial, la utilización de ordenadores se convirtió en esencial. La nave Voyager 2, que fue lanzada el 20 de agosto de 1977 con la misión de explorar los planetas exteriores al sistema solar, iba equipada con seis ordenadores diferentes, con capacidad de 540 Megas, algo portentoso para la época.
Hoy en día, la existencia de superordenadores que, naturalmente, trabajen en tiempo real, se ha convertido en una necesidad.
Por ejemplo, son imprescindibles en las industrias del automóvil y la aeronáutica. En este caso los estudios de aerodinámica son una pieza fundamental para optimizar la forma del fuselaje o de las alas. También se emplea en simulación de vuelos para el entrenamiento de los pilotos, etc. El análisis de la estructura del avión Boeing 777 se realizó completamente por un supercomputador y también el diseño del avión invisible F-117.
Otras aplicaciones son el diseño de nuevos productos farmacéuticos, componentes electrónicos, simulación de terremotos, estudio de la evolución de la contaminación en áreas extensas, predicción meteorológica y estudios del cambio climático o simulación de órganos corporales con el objetivo de reproducir su funcionamiento con representaciones en 3D de alta precisión a partir de métodos de resonancia magnética.
En definitiva, el mercado pide ordenadores más potentes y más "SUPER". Los sistemas actuales permiten, como en el caso del Pentium de INTEL poder tener 5,5 millones de transistores en una placa de silicio inferior a 100 milímetros cuadrados. Pero se necesita más.
Una de las primeras tareas asignadas al "superordenador" de los años cuarenta, el ENIAC, no fue para un uso muy "pacífico", ya que se utilizó en los cálculos de diseño de la primera bomba. Atómica (Proyecto Manhattan), en concreto para calcular las ondas de choque de las explosiones de prueba de las bombas atómicas.
Sin la rapidez y la capacidad de cálculo de los ordenadores, algunas disciplinas se habrían "ahogado" en sus planteamientos teóricos. Tal es el caso de la física de alta energía. Hay experimentos en el CERN que hacen colisionar electrones y positrones y que producen tal cantidad de información que, sin la ayuda de un superordenador que sepa discriminar entre todos los sucesos, no se habría podido comprobar experimentalmente las ideas teóricas.
En la investigación espacial, la utilización de ordenadores se convirtió en esencial. La nave Voyager 2, que fue lanzada el 20 de agosto de 1977 con la misión de explorar los planetas exteriores al sistema solar, iba equipada con seis ordenadores diferentes, con capacidad de 540 Megas, algo portentoso para la época.
Hoy en día, la existencia de superordenadores que, naturalmente, trabajen en tiempo real, se ha convertido en una necesidad.
Por ejemplo, son imprescindibles en las industrias del automóvil y la aeronáutica. En este caso los estudios de aerodinámica son una pieza fundamental para optimizar la forma del fuselaje o de las alas. También se emplea en simulación de vuelos para el entrenamiento de los pilotos, etc. El análisis de la estructura del avión Boeing 777 se realizó completamente por un supercomputador y también el diseño del avión invisible F-117.
Otras aplicaciones son el diseño de nuevos productos farmacéuticos, componentes electrónicos, simulación de terremotos, estudio de la evolución de la contaminación en áreas extensas, predicción meteorológica y estudios del cambio climático o simulación de órganos corporales con el objetivo de reproducir su funcionamiento con representaciones en 3D de alta precisión a partir de métodos de resonancia magnética.
En definitiva, el mercado pide ordenadores más potentes y más "SUPER". Los sistemas actuales permiten, como en el caso del Pentium de INTEL poder tener 5,5 millones de transistores en una placa de silicio inferior a 100 milímetros cuadrados. Pero se necesita más.
QUE ES UNA SUPERCOMPUTADORA
Como son las supercomputadoras
¿Qué es una Supercomputadora?
Las computadoras son máquinas de alto rendimiento muy poderosas que se usan sobre todo para cálculos científicos. Para acelerar la operación, los componentes se juntan para minimizar la distancia que tienen que recorrer las señales electrónicas. Las supercomputadoras también utilizan técnicas especiales para evitar el calor en los circuitos y prevenir que se quemen debido a su proximidad.
El conjunto de instrucciones de las supercomputadoras contiene las instrucciones de transferencias de datos, manipulación de datos y transferencia de control del programa de las computadoras convencionales. Esto se aumenta mediante instrucciones que procesan valores y combinaciones de escalares y vectores.
Una supercomputadora es un sistema computacional que se reconoce por su alta velocidad de cálculo, sus sistemas de memoria grandes y rápidos y un uso amplio de procesamiento paralelo. Está equipada con unidades funcionales múltiples y cada unidad tiene su propia configuración de arquitectura paralela. Aunque la supercomputadora maneja aplicaciones de propósito general que se encuentran en todas las otras computadoras, está optimizada específicamente para el tipo de cálculos numéricos que involucran vectores y matrices de números de punto flotante.
Las supercomputadoras no son convenientes para procesamiento cotidiano normal de una instalación de computadora típica.
La velocidad de un supercomputador se mide en base a la cantidad de operaciones matemáticas que hace por segundo. El término técnico para esta velocidad es FLOPS. Si tú haces una operación en la calculadora, tu velocidad sería de 1 FLOPS. El término megaflops se utiliza para representar millones de flops.
Lo que hace que un superordenador sea "SUPER" es su capacidad para ejecutar al menos mil millones de operaciones de coma flotante por segundo. Es una medida de velocidad sorprendente conocida como "gigaflop".
¿Qué es una Supercomputadora?
Las computadoras son máquinas de alto rendimiento muy poderosas que se usan sobre todo para cálculos científicos. Para acelerar la operación, los componentes se juntan para minimizar la distancia que tienen que recorrer las señales electrónicas. Las supercomputadoras también utilizan técnicas especiales para evitar el calor en los circuitos y prevenir que se quemen debido a su proximidad.
El conjunto de instrucciones de las supercomputadoras contiene las instrucciones de transferencias de datos, manipulación de datos y transferencia de control del programa de las computadoras convencionales. Esto se aumenta mediante instrucciones que procesan valores y combinaciones de escalares y vectores.
Una supercomputadora es un sistema computacional que se reconoce por su alta velocidad de cálculo, sus sistemas de memoria grandes y rápidos y un uso amplio de procesamiento paralelo. Está equipada con unidades funcionales múltiples y cada unidad tiene su propia configuración de arquitectura paralela. Aunque la supercomputadora maneja aplicaciones de propósito general que se encuentran en todas las otras computadoras, está optimizada específicamente para el tipo de cálculos numéricos que involucran vectores y matrices de números de punto flotante.
Las supercomputadoras no son convenientes para procesamiento cotidiano normal de una instalación de computadora típica.
La velocidad de un supercomputador se mide en base a la cantidad de operaciones matemáticas que hace por segundo. El término técnico para esta velocidad es FLOPS. Si tú haces una operación en la calculadora, tu velocidad sería de 1 FLOPS. El término megaflops se utiliza para representar millones de flops.
Lo que hace que un superordenador sea "SUPER" es su capacidad para ejecutar al menos mil millones de operaciones de coma flotante por segundo. Es una medida de velocidad sorprendente conocida como "gigaflop".
LAS SUPERCOMPUTADORAS
SUPERCOMPUTADORAS
A principios de mes, IBM anunció el inicio de la construcción de Sequoia, la supercomputadora que cuando esté lista en 2012 será, según la compañía, la más poderosa del planeta. Su poder de cálculo teórico será mayor que el de los 500 equipos más rápidos del planeta sumados, llegando a realizar 20 petaflops, es decir, 20.000 billones de operaciones matemáticas por segundo. Ocupará más de 300 metros cuadrados, donde 96 servidores (cada uno del tamaño de una heladera) albergarán unos 200.000 procesadores, cada uno con 8 núcleos: una versión mejorada de los chips Cell que se encuentran en la PlayStation 3 y que IBM diseñó junto a Sony y Toshiba.En IBM ofrecen la siguiente analogía para tratar de comprender este poder de cálculo: si todos los habitantes del planeta hicieran cuentas, cada uno con una calculadora, todo el día, tardarían 320 años en hacer lo que Sequoia resolverá en una hora.El equipo, además, tendrá 1,6 Petabytes de memoria RAM, es decir, 1.600.000 gigabytes de memoria distribuida entre sus procesadores. A modo de comparación, el Gran Colisionador de Hadrones, el instrumento científico más grande del planeta, generará 15 petabytes de datos al año.Para lograr semejante performance, las supercomputadoras se especializan en cálculos paralelos. "Lo que se hace es tomar una ecuación matemática y dividirla en trozos pequeños y distribuirla entre varios procesadores, para que cada uno resuelva esas cuentas sencillas y así lleguen más rápido a la soluciónexplica José Castaño, científico argentino que es investigador en supercomputadoras para IBM Research, y que fue uno de los desarrolladores de la supercomputadora Blue Gene?. “Sería más sencillo tener un único chip ultraveloz, pero es más barato poner varios procesadores a trabajar juntos al mismo tiempo".La técnica de computación en paralelo es particularmente eficaz cuando es necesario procesar grandes volúmenes de datos. Sequoia será usada por el Departamento de Energía de los Estados Unidos para supervisar el arsenal nuclear de ese país, además de realizar estudios en astronomía y cambio climático.
A principios de mes, IBM anunció el inicio de la construcción de Sequoia, la supercomputadora que cuando esté lista en 2012 será, según la compañía, la más poderosa del planeta. Su poder de cálculo teórico será mayor que el de los 500 equipos más rápidos del planeta sumados, llegando a realizar 20 petaflops, es decir, 20.000 billones de operaciones matemáticas por segundo. Ocupará más de 300 metros cuadrados, donde 96 servidores (cada uno del tamaño de una heladera) albergarán unos 200.000 procesadores, cada uno con 8 núcleos: una versión mejorada de los chips Cell que se encuentran en la PlayStation 3 y que IBM diseñó junto a Sony y Toshiba.En IBM ofrecen la siguiente analogía para tratar de comprender este poder de cálculo: si todos los habitantes del planeta hicieran cuentas, cada uno con una calculadora, todo el día, tardarían 320 años en hacer lo que Sequoia resolverá en una hora.El equipo, además, tendrá 1,6 Petabytes de memoria RAM, es decir, 1.600.000 gigabytes de memoria distribuida entre sus procesadores. A modo de comparación, el Gran Colisionador de Hadrones, el instrumento científico más grande del planeta, generará 15 petabytes de datos al año.Para lograr semejante performance, las supercomputadoras se especializan en cálculos paralelos. "Lo que se hace es tomar una ecuación matemática y dividirla en trozos pequeños y distribuirla entre varios procesadores, para que cada uno resuelva esas cuentas sencillas y así lleguen más rápido a la soluciónexplica José Castaño, científico argentino que es investigador en supercomputadoras para IBM Research, y que fue uno de los desarrolladores de la supercomputadora Blue Gene?. “Sería más sencillo tener un único chip ultraveloz, pero es más barato poner varios procesadores a trabajar juntos al mismo tiempo".La técnica de computación en paralelo es particularmente eficaz cuando es necesario procesar grandes volúmenes de datos. Sequoia será usada por el Departamento de Energía de los Estados Unidos para supervisar el arsenal nuclear de ese país, además de realizar estudios en astronomía y cambio climático.
RED DE AREA LOCAL
Definición de Red de Área Local Inalámbrica
Una red de área local inalámbrica puede definirse como a una red de alcance local que tiene como medio de transmisión el aire. Por red de área local entendemos una red que cubre un entorno geográfico limitado, con una velocidad de transferencia de datos relativamente alta (mayor o igual a 1 Mbps tal y como especifica el IEEE), con baja tasa de errores y administrada de forma privada.
Por red inalámbrica entendemos una red que utiliza ondas electromagnéticas como medio de transmisión de la información que viaja a través del canal inalámbrico enlazando los diferentes equipos o terminales móviles asociados a la red. Estos enlaces se implementan básicamente a través de tecnologías de microondas y de infrarrojos. En las redes tradicionales cableadas esta información viaja a través de cables coaxiales, pares trenzados o fibra óptica. Una red de área local inalámbrica, también llamada wireless LAN (WLAN), es un sistema flexible de comunicaciones que puede implementarse como una extensión o directamente como una alternativa a una red cableada.
Una red de área local inalámbrica puede definirse como a una red de alcance local que tiene como medio de transmisión el aire. Por red de área local entendemos una red que cubre un entorno geográfico limitado, con una velocidad de transferencia de datos relativamente alta (mayor o igual a 1 Mbps tal y como especifica el IEEE), con baja tasa de errores y administrada de forma privada.
Por red inalámbrica entendemos una red que utiliza ondas electromagnéticas como medio de transmisión de la información que viaja a través del canal inalámbrico enlazando los diferentes equipos o terminales móviles asociados a la red. Estos enlaces se implementan básicamente a través de tecnologías de microondas y de infrarrojos. En las redes tradicionales cableadas esta información viaja a través de cables coaxiales, pares trenzados o fibra óptica. Una red de área local inalámbrica, también llamada wireless LAN (WLAN), es un sistema flexible de comunicaciones que puede implementarse como una extensión o directamente como una alternativa a una red cableada.
jueves, 19 de febrero de 2009
MODEM
Módem
Un módem es un dispositivo que sirve para modular y desmodular (en amplitud, frecuencia, fase u otro sistema) una señal llamada portadora mediante otra señal de entrada llamada moduladora. Se han usado modems desde los años 60 o antes del siglo XX, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción.Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTC (Red Telefónica Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.
Un módem es un dispositivo que sirve para modular y desmodular (en amplitud, frecuencia, fase u otro sistema) una señal llamada portadora mediante otra señal de entrada llamada moduladora. Se han usado modems desde los años 60 o antes del siglo XX, principalmente debido a que la transmisión directa de las señales electrónicas inteligibles, a largas distancias, no es eficiente, por ejemplo, para transmitir señales de audio por el aire, se requerirían antenas de gran tamaño (del orden de cientos de metros) para su correcta recepción.Es habitual encontrar en muchos módems de red conmutada la facilidad de respuesta y marcación automática, que les permiten conectarse cuando reciben una llamada de la RTC (Red Telefónica Conmutada) y proceder a la marcación de cualquier número previamente grabado por el usuario. Gracias a estas funciones se pueden realizar automáticamente todas las operaciones de establecimiento de la comunicación.
FIBRA OPTICA
Hay de diversas clases, por ejemplo el Cable de fibra Óptica de 12 hilos multimodo 62.5/125 para uso interior – exterior. Marca FisTiene un costo de 3.5 dólares por metro.Mientras que el Cable de fibra Óptica de 4 hilos multimodo con armadura metálica uso exterior tipo loose tube. Marca Fis, tiene un costo de 3.2 dólares por Metro.
http://es.answers.yahoo.com/question/index?qid=20081226115038AAnhg3W
http://es.answers.yahoo.com/question/index?qid=20081226115038AAnhg3W
ONDAS ELECTROMANECTICAS
Una onda electromagnética es la forma de propagación de la radiación electromagnética a través del espacio, y sus aspectos teóricos están relacionados con la solución en forma de onda que admiten las ecuaciones de Maxwell.A diferencia de las ondas mecánicas, las ondas electromagnéticas no necesitan de un medio material para propagarse.
Historia del descubrimiento
James Clerk Maxwell fue el primero en hacer la observación teórica de que un campo electromagnético variable admite una solución cuya ecuación de movimiento se corresponde a la de una onda. Eso sugería que el campo electromagnético era susceptible de propagarse en forma de ondas, tanto en un medio material como en el vacío. Esta última posibilidad de propagación en el vacío suscitó ciertas dudas en su momento, ya que la idea de que una onda se propagara de forma autosostenida en el vacío resultaba extraña. Además las ecuaciones de Maxwell sugerían que la velocidad de propagación en el vacío era constante, para todos los observadores. Eso llevo a interpretar la velocidad de propagación constante de las ondas electromagnéticas como la velocidad a la que se propagaban las ondas respecto a un supuesto éter inmóvil que sería un medio material muy sutil que invadiría todo el universo. Sin embargo, el famoso experimento de Michelson y Morley descartó la existencia del éter y quedó inexplicado hasta que Albert Einstein daría con la solución para la constancia de la velocidad de la luz en su teoría especial de la relatividad.
Por otro lado los primeros experimentos para detectar físicamente las ondas electromagnéticas fueron llevados a cabo por Heinrich Hertz en 1888, gracias a que fue el primero en construir un aparato que emitía y detectaba ondas electromagnéticas VHF y UHF.
http://es.wikipedia.org/wiki/Onda_electromagn%C3%A9tica
Historia del descubrimiento
James Clerk Maxwell fue el primero en hacer la observación teórica de que un campo electromagnético variable admite una solución cuya ecuación de movimiento se corresponde a la de una onda. Eso sugería que el campo electromagnético era susceptible de propagarse en forma de ondas, tanto en un medio material como en el vacío. Esta última posibilidad de propagación en el vacío suscitó ciertas dudas en su momento, ya que la idea de que una onda se propagara de forma autosostenida en el vacío resultaba extraña. Además las ecuaciones de Maxwell sugerían que la velocidad de propagación en el vacío era constante, para todos los observadores. Eso llevo a interpretar la velocidad de propagación constante de las ondas electromagnéticas como la velocidad a la que se propagaban las ondas respecto a un supuesto éter inmóvil que sería un medio material muy sutil que invadiría todo el universo. Sin embargo, el famoso experimento de Michelson y Morley descartó la existencia del éter y quedó inexplicado hasta que Albert Einstein daría con la solución para la constancia de la velocidad de la luz en su teoría especial de la relatividad.
Por otro lado los primeros experimentos para detectar físicamente las ondas electromagnéticas fueron llevados a cabo por Heinrich Hertz en 1888, gracias a que fue el primero en construir un aparato que emitía y detectaba ondas electromagnéticas VHF y UHF.
http://es.wikipedia.org/wiki/Onda_electromagn%C3%A9tica
ONDA SONORA
Una onda sonora es una variación local de la densidad o presión de un medio continuo, que se transmite de unas partes a otras del medio en forma de onda longitudinal periódica o cuasiperiódica. En física, sonido es cualquier fenómeno que involucre la propagación en forma de ondas elásticas audibles o casi audibles, generalmente a través de un fluido (u otro medio elástico) que este generando movimiento vibratorio de un cuerpo. El sonido humanamente audible consiste en ondas sonoras consistentes en oscilaciones de la presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de fluctuaciones de presión. En los cuerpos sólidos la propagación del sonido involucra variaciones del estado tensional del medio.
http://es.wikipedia.org/wiki/Onda_sonora
http://es.wikipedia.org/wiki/Onda_sonora
QUE ES UN BIT
Un bit es una señal electrónica que puede estar encendida (1) o apagada (0). Es la unidad más pequeña de información que utiliza un ordenador. Son necesarios 8 bits para crear un byte.
La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.
http://www.masadelante.com/faq-bit.htm
La mayoría de las veces los bits se utilizan para describir velocidades de transmisión, mientras que los bytes se utilizan para describir capacidad de almacenamiento o memoria.
http://www.masadelante.com/faq-bit.htm
VELOCIDAD DEL INTENET
VELOCIDAD DEL INTERNET
Los resultados viene expresados en kbps. Puedes aproximar que 1000 kbps son el equivalente a una conexión de 1 Mega. Si quieres afinar más sólo tienes que dividir los kbps por 1024 y tendrás el equivalente en megas de tu conexión. Por ejemplo, si el resultado es 1715 entonces tu conexión será de 1715/1024= 1.67 MegasUn par de consideraciones finales:
a) Ninguna conexión funciona al 100% por lo que no te asustes si tu velocidad no es el máximo que has contratado. Pero si la distancia del máximo es significativa, algo falla. “Significativo” depende la conexión, por ejemplo para mi conexión de 2 Mb si el test me informara de que estoy funcionando a la mitad (1Mb) sería preocupante, pero si en una conexión de 10 Mb funcionas a la mitad (5 Mb) es aún más grave.
http://www.blogoff.es/2006/04/01/%C2%BFcual-es-la-velocidad-de-mi-conexion-a-internet/
Los resultados viene expresados en kbps. Puedes aproximar que 1000 kbps son el equivalente a una conexión de 1 Mega. Si quieres afinar más sólo tienes que dividir los kbps por 1024 y tendrás el equivalente en megas de tu conexión. Por ejemplo, si el resultado es 1715 entonces tu conexión será de 1715/1024= 1.67 MegasUn par de consideraciones finales:
a) Ninguna conexión funciona al 100% por lo que no te asustes si tu velocidad no es el máximo que has contratado. Pero si la distancia del máximo es significativa, algo falla. “Significativo” depende la conexión, por ejemplo para mi conexión de 2 Mb si el test me informara de que estoy funcionando a la mitad (1Mb) sería preocupante, pero si en una conexión de 10 Mb funcionas a la mitad (5 Mb) es aún más grave.
http://www.blogoff.es/2006/04/01/%C2%BFcual-es-la-velocidad-de-mi-conexion-a-internet/
FIBRA OPTICA
La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. El haz de luz queda completamente confinado y se propaga por el núcleo de la fibra con un ángulo de reflexión por encima del ángulo límite de reflexión total en aplicación de la Ley de Snell. La fuente de luz puede ser láser o un LED.
Las fibras son ampliamente utilizadas en telecomunicaciones, ya que permiten enviar gran cantidad de datos a gran velocidad, mayor que las comunicaciones de radio y cable. También se utilizan para redes locales. Son el medio de transmisión inmune a las interferencias por excelencia. Tienen un coste elevado.
http://es.wikipedia.org/wiki/Cable_de_fibra_%C3%B3ptica
Las fibras son ampliamente utilizadas en telecomunicaciones, ya que permiten enviar gran cantidad de datos a gran velocidad, mayor que las comunicaciones de radio y cable. También se utilizan para redes locales. Son el medio de transmisión inmune a las interferencias por excelencia. Tienen un coste elevado.
http://es.wikipedia.org/wiki/Cable_de_fibra_%C3%B3ptica
SEÑAL DIGITAL
Señal digital
La señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético en que cada signo que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que representan valores discretos, en lugar de valores dentro de un cierto rango. Por ejemplo, el interruptor de la luz sólo puede tomar dos valores o estados: abierto o cerrado, o la misma lámpara: encendida o apagada (véase circuito de conmutación).
Los sistemas digitales, como por ejemplo el ordenador, usan lógica de dos estados representados por dos niveles de tensión eléctrica, uno alto, H y otro bajo, L (de High y Low, respectivamente, en inglés). Por abstracción, dichos estados se sustituyen por ceros y unos, lo que facilita la aplicación de la lógica y la aritmética binaria. Si el nivel alto se representa por 1 y el bajo por 0, se habla de lógica positiva y en caso contrario de lógica negativa.
http://es.wikipedia.org/wiki/Digital_(se%C3%B1al)
La señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético en que cada signo que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que representan valores discretos, en lugar de valores dentro de un cierto rango. Por ejemplo, el interruptor de la luz sólo puede tomar dos valores o estados: abierto o cerrado, o la misma lámpara: encendida o apagada (véase circuito de conmutación).
Los sistemas digitales, como por ejemplo el ordenador, usan lógica de dos estados representados por dos niveles de tensión eléctrica, uno alto, H y otro bajo, L (de High y Low, respectivamente, en inglés). Por abstracción, dichos estados se sustituyen por ceros y unos, lo que facilita la aplicación de la lógica y la aritmética binaria. Si el nivel alto se representa por 1 y el bajo por 0, se habla de lógica positiva y en caso contrario de lógica negativa.
http://es.wikipedia.org/wiki/Digital_(se%C3%B1al)
PALABRA ANALOGICO
El término Analógico puede referirse a:
la señal cuya magnitud se representa mediante variables continuas;
el circuito electrónico que trabaja con valores continuos;
el tipo de razonamiento consiste en obtener una conclusión a partir de premisas en las que se establece una comparación o analogía entre elementos o conjuntos de elementos distintos;
el ordenador que utiliza fenómenos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra.
En los años 70's del siglo pasado, ante el desarrollo explosivo de la electrónica digital que dio origen a los microprocesadores, se comenzó a utilizar el término "analógico" como un antónimo de la palabra "lógico", éste último para referirse a la reciente y prometedora ciencia de los '1's y los '0's. Así, anteponiendo el prefijo 'an' o 'ana' se pretendió indicar la 'ausencia de' lógica en un circuito electrónico o señal eléctrica que no fuera discontinua en el tiempo, como lo eran las señales digitales provenientes de un circuito lógico formado por compuertas lógicas (AND, OR, NOT, etc).
http://es.wikipedia.org/wiki/Anal%C3%B3gico
la señal cuya magnitud se representa mediante variables continuas;
el circuito electrónico que trabaja con valores continuos;
el tipo de razonamiento consiste en obtener una conclusión a partir de premisas en las que se establece una comparación o analogía entre elementos o conjuntos de elementos distintos;
el ordenador que utiliza fenómenos electrónicos o mecánicos para modelar el problema a resolver utilizando un tipo de cantidad física para representar otra.
En los años 70's del siglo pasado, ante el desarrollo explosivo de la electrónica digital que dio origen a los microprocesadores, se comenzó a utilizar el término "analógico" como un antónimo de la palabra "lógico", éste último para referirse a la reciente y prometedora ciencia de los '1's y los '0's. Así, anteponiendo el prefijo 'an' o 'ana' se pretendió indicar la 'ausencia de' lógica en un circuito electrónico o señal eléctrica que no fuera discontinua en el tiempo, como lo eran las señales digitales provenientes de un circuito lógico formado por compuertas lógicas (AND, OR, NOT, etc).
http://es.wikipedia.org/wiki/Anal%C3%B3gico
VELOCIDAD DEL SONIDO
VELOCIDAD DEL SONIDO
La luz viaja mucho más rápido que el sonido. La velocidad de la luz en el vacío es de 299.792.458 metros por segundo, unas 670.616.629 millas por hora aproximadamente. La velocidad de la luz en el aire es ligeramente mas lenta, pero todavía es ceca de un millón de veces más rápida que el sonido. La velocidad del sonido en el aire es 330 metros por segundo aproximadamente, unos 740 millas por hora ó unos 1,080 pies por segundo.
http://www.seed.slb.com/qa2/FAQView.cfm?ID=1193&Language=ES
La luz viaja mucho más rápido que el sonido. La velocidad de la luz en el vacío es de 299.792.458 metros por segundo, unas 670.616.629 millas por hora aproximadamente. La velocidad de la luz en el aire es ligeramente mas lenta, pero todavía es ceca de un millón de veces más rápida que el sonido. La velocidad del sonido en el aire es 330 metros por segundo aproximadamente, unos 740 millas por hora ó unos 1,080 pies por segundo.
http://www.seed.slb.com/qa2/FAQView.cfm?ID=1193&Language=ES
VELOCIDAD DE LA LUZ
La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s (suele aproximarse a 3•108 m/s).
http://es.wikipedia.org/wiki/Velocidad_de_la_luz
http://es.wikipedia.org/wiki/Velocidad_de_la_luz
ESPECTRO MAGNETICO
Se denomina espectro electromagnético a la distribución energética del conjunto de las ondas electromagnéticas. Referido a un objeto se denomina espectro electromagnético o simplemente espectro a la radiación electromagnética que emite (espectro de emisión) o absorbe (espectro de absorción) una sustancia. Dicha radiación sirve para identificar la sustancia de manera análoga a una huella dactilar. Los espectros se pueden observar mediante espectroscopios que, además de permitir observar el espectro, permiten realizar medidas sobre éste, como la longitud de onda, la frecuencia y la intensidad de la radiación.
El espectro electromagnético se extiende desde la radiación de menor longitud de onda, como los rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo (véase Cosmología física) aunque formalmente el espectro electromagnético es infinito y continuo.
http://es.wikipedia.org/wiki/Espectro_electromagn%C3%A9tico
El espectro electromagnético se extiende desde la radiación de menor longitud de onda, como los rayos gamma y los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite para la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo (véase Cosmología física) aunque formalmente el espectro electromagnético es infinito y continuo.
http://es.wikipedia.org/wiki/Espectro_electromagn%C3%A9tico
GSM
GSM son las siglas de Global System for Mobile communications (Sistema Global para las comunicaciones Móviles), es el sistema de teléfono móvil digital más utilizado y el estándar de facto para teléfonos móviles en Europa.
Definido originalmente como estándar Europeo abierto para que una red digital de teléfono móvil soporte voz, datos, mensajes de texto y roaming en varios países. El GSM es ahora uno de los estándares digitales inalámbricos 2G más importantes del mundo. El GSM está presente en más de 160 países y según la asociación GSM, tienen el 70 por ciento del total del mercado móvil digital.
http://www.masadelante.com/faq-gsm.htm
Definido originalmente como estándar Europeo abierto para que una red digital de teléfono móvil soporte voz, datos, mensajes de texto y roaming en varios países. El GSM es ahora uno de los estándares digitales inalámbricos 2G más importantes del mundo. El GSM está presente en más de 160 países y según la asociación GSM, tienen el 70 por ciento del total del mercado móvil digital.
http://www.masadelante.com/faq-gsm.htm
GPS
Las siglas GPS se corresponden con "Global Positioning System" que significa Sistema de Posicionamiento Global (aunque sus siglas GPS se han popularizado el producto en el mundo comercial.
Definición de GPS: En síntesis podemos definir el GPS como un Sistema Global de Navegación por Satélite (GNSS) que nos permite fijar a escala mundial la posición de un objeto, una persona, un vehículo o una nave.
La precisión del GPS puede llegar a determinar los punto de posición con errores mínimos de cms (GPS diferencia), aunque en la práctica hablemos de metros.
Orígenes y control del navegador GPS
Los orígenes de este sistema hay situarlos en el ámbito de la Defensa de los Estados Unidos de América. Departamento de Defensa fue el que desarrolló e instaló, y opera actualmente este sistema.
Para ello, una red de 24 satélites (21 operativos) en órbita a 20.200 km permite cubrir toda la superficie terrestre.
Funcionamiento del sistema GPS
Para fijar una posición, el navegador GPS localiza automáticamente como mínimo 4 satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada satélite. El navegador GPS sincroniza su reloj y calcula el retraso de las señales (que viene dado por distancia al satélite), calculando la posición en que éste se halla.
Estimadas las distancias, se fija con facilidad la propia posición relativa del GPS respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. http://www.euroresidentes.com/gps/que-es-el-gps.htm
Definición de GPS: En síntesis podemos definir el GPS como un Sistema Global de Navegación por Satélite (GNSS) que nos permite fijar a escala mundial la posición de un objeto, una persona, un vehículo o una nave.
La precisión del GPS puede llegar a determinar los punto de posición con errores mínimos de cms (GPS diferencia), aunque en la práctica hablemos de metros.
Orígenes y control del navegador GPS
Los orígenes de este sistema hay situarlos en el ámbito de la Defensa de los Estados Unidos de América. Departamento de Defensa fue el que desarrolló e instaló, y opera actualmente este sistema.
Para ello, una red de 24 satélites (21 operativos) en órbita a 20.200 km permite cubrir toda la superficie terrestre.
Funcionamiento del sistema GPS
Para fijar una posición, el navegador GPS localiza automáticamente como mínimo 4 satélites de la red, de los que recibe unas señales indicando la posición y el reloj de cada satélite. El navegador GPS sincroniza su reloj y calcula el retraso de las señales (que viene dado por distancia al satélite), calculando la posición en que éste se halla.
Estimadas las distancias, se fija con facilidad la propia posición relativa del GPS respecto a los tres satélites. Conociendo además las coordenadas o posición de cada uno de ellos por la señal que emiten, se obtiene la posición absoluta o coordenadas reales del punto de medición. http://www.euroresidentes.com/gps/que-es-el-gps.htm
domingo, 15 de febrero de 2009
SISTEMA DECIMAL
SISTEMA DECIMAL
El sistema métrico decimal o simplemente sistema métrico es un sistema de unidades basado en el metro, en el cual los múltiplos y submúltiplos de una unidad de medida están relacionadas entre sí por múltiplos o submúltiplos de 10.
Fue implantado por la 1ª Conferencia General de Pesos y Medidas (París, 1889), con el que se pretendía buscar un sistema único para todo el mundo para facilitar el intercambio, ya que hasta entonces cada país, e incluso cada región, tenía su propio sistema, a menudo con las mismas denominaciones para las magnitudes, pero con distinto valor.
Como unidad de medida de longitud se adoptó el metro, definido como la diezmillonésima parte del cuadrante del meridiano terrestre, cuyo patrón se reprodujo en una barra de platino iridiado. El original se depositó en París y se hizo una copia para cada uno de los veinte países firmantes del acuerdo.
Como medida de capacidad se adoptó el litro, equivalente al decímetro cúbico.
Como medida de masa se adoptó el kilogramo, definido a partir de la masa de un litro de agua pura y materializado en un kilogramo patrón.
Se adoptaron múltiplos (deca, 10, hecto, 100, kilo, 1000 y miria, 10000) y submúltiplos (deci, 0,1; centi, 0,01; y mili, 0,001) y un sistema de notaciones para emplearlos.
Su forma moderna es el Sistema Internacional de Unidades (SI), al que se han adherido muchos de los países que no adoptaron el sistema métrico decimal con anterioridad.
El sistema métrico decimal o simplemente sistema métrico es un sistema de unidades basado en el metro, en el cual los múltiplos y submúltiplos de una unidad de medida están relacionadas entre sí por múltiplos o submúltiplos de 10.
Fue implantado por la 1ª Conferencia General de Pesos y Medidas (París, 1889), con el que se pretendía buscar un sistema único para todo el mundo para facilitar el intercambio, ya que hasta entonces cada país, e incluso cada región, tenía su propio sistema, a menudo con las mismas denominaciones para las magnitudes, pero con distinto valor.
Como unidad de medida de longitud se adoptó el metro, definido como la diezmillonésima parte del cuadrante del meridiano terrestre, cuyo patrón se reprodujo en una barra de platino iridiado. El original se depositó en París y se hizo una copia para cada uno de los veinte países firmantes del acuerdo.
Como medida de capacidad se adoptó el litro, equivalente al decímetro cúbico.
Como medida de masa se adoptó el kilogramo, definido a partir de la masa de un litro de agua pura y materializado en un kilogramo patrón.
Se adoptaron múltiplos (deca, 10, hecto, 100, kilo, 1000 y miria, 10000) y submúltiplos (deci, 0,1; centi, 0,01; y mili, 0,001) y un sistema de notaciones para emplearlos.
Su forma moderna es el Sistema Internacional de Unidades (SI), al que se han adherido muchos de los países que no adoptaron el sistema métrico decimal con anterioridad.
SISTEMA INTERNACIONAL DE UNIDADES
El Sistema Internacional de Unidades (abreviado SI del francés: Le Système International d'Unités), también denominado Sistema Internacional de Medidas, es el nombre que recibe el sistema de unidades que se usa en la mayoría de los países y es la forma actual del sistema métrico decimal. El SI también es conocido como «sistema métrico», especialmente en las naciones en las que aún no se ha implantado para su uso cotidiano. Fue creado en 1960 por la Conferencia General de Pesos y Medidas, que inicialmente definió seis unidades físicas básicas. En 1971 se añadió la séptima unidad básica, el mol.
Una de las principales características, que constituye la gran ventaja del SI, es que sus unidades están basadas en fenómenos físicos fundamentales. La única excepción es la unidad de la magnitud masa, el kilogramo, que está definida como «la masa del prototipo internacional del kilogramo» o aquel cilindro de platino e iridio almacenado en una caja fuerte de la Oficina Internacional de Pesos y Medidas.
Las unidades del SI son la referencia internacional de las indicaciones de los instrumentos de medida y a las que están referidas a través de una cadena ininterrumpida de calibraciones o comparaciones. Esto permite alcanzar la equivalencia de las medidas realizadas por instrumentos similares, utilizados y calibrados en lugares apartados y por ende asegurar, sin la necesidad de ensayos y mediciones duplicadas, el cumplimiento de las características de los objetos que circulan en el comercio internacional y su intercambiabilidad.
Desde el 2006 se está unificando el SI con la norma ISO 31 para formar el Sistema Internacional de Magnitudes (ISO/IEC 80000). Hasta mayo del 2008 ya se habían publicado 7 de las 14 partes de las que consta.
Una de las principales características, que constituye la gran ventaja del SI, es que sus unidades están basadas en fenómenos físicos fundamentales. La única excepción es la unidad de la magnitud masa, el kilogramo, que está definida como «la masa del prototipo internacional del kilogramo» o aquel cilindro de platino e iridio almacenado en una caja fuerte de la Oficina Internacional de Pesos y Medidas.
Las unidades del SI son la referencia internacional de las indicaciones de los instrumentos de medida y a las que están referidas a través de una cadena ininterrumpida de calibraciones o comparaciones. Esto permite alcanzar la equivalencia de las medidas realizadas por instrumentos similares, utilizados y calibrados en lugares apartados y por ende asegurar, sin la necesidad de ensayos y mediciones duplicadas, el cumplimiento de las características de los objetos que circulan en el comercio internacional y su intercambiabilidad.
Desde el 2006 se está unificando el SI con la norma ISO 31 para formar el Sistema Internacional de Magnitudes (ISO/IEC 80000). Hasta mayo del 2008 ya se habían publicado 7 de las 14 partes de las que consta.
DEFINICION DE RED 2
Redes. Una aproximación al concepto
Dra. Marta Rizo García1
Universidad Autónoma de la Ciudad de México
mrizog@yahoo.com
1. ¿Qué son las redes?
Las redes son, antes que nada, formas de interacción social, espacios sociales de convivencia y conectividad. Se definen fundamentalmente por los intercambios dinámicos entre los sujetos que las forman. Las redes son sistemas abiertos y horizontales, y aglutinan a conjuntos de personas que se identifican con las mismas necesidades y problemáticas. Las redes, por tanto, se erigen como una forma de organización social que permite a un grupo de personas potenciar sus recursos y contribuir a la resolución de problemas.
El atributo fundamental de una red es la construcción de interacciones para la resolución de problemas y satisfacción de necesidades. Su lógica no es la de homogeneizar a los grupos sociales, sino la de organizar a la sociedad en su diversidad, mediante la estructuración de vínculos entre grupos con intereses y preocupaciones comunes. De alguna manera, las redes implican un desafío a la estructura piramidal, vertical, de la organización social y proponen una alternativa a esta forma de organización que pueda hacer frente a las situaciones de fragmentación y desarticulación que se vive en la actualidad.
En términos generales, el concepto de red se utiliza para hacer referencia a dos fenómenos: por un lado se consideran redes todos los conjuntos de interacciones que se dan de forma espontánea, y por el otro, y este es el aspecto que interesa destacar, las redes pretenden organizar esas interacciones espontáneas con un cierto grado de formalidad, en el sentido de establecer intereses, problemáticas, preguntas y fines comunes.
Dra. Marta Rizo García1
Universidad Autónoma de la Ciudad de México
mrizog@yahoo.com
1. ¿Qué son las redes?
Las redes son, antes que nada, formas de interacción social, espacios sociales de convivencia y conectividad. Se definen fundamentalmente por los intercambios dinámicos entre los sujetos que las forman. Las redes son sistemas abiertos y horizontales, y aglutinan a conjuntos de personas que se identifican con las mismas necesidades y problemáticas. Las redes, por tanto, se erigen como una forma de organización social que permite a un grupo de personas potenciar sus recursos y contribuir a la resolución de problemas.
El atributo fundamental de una red es la construcción de interacciones para la resolución de problemas y satisfacción de necesidades. Su lógica no es la de homogeneizar a los grupos sociales, sino la de organizar a la sociedad en su diversidad, mediante la estructuración de vínculos entre grupos con intereses y preocupaciones comunes. De alguna manera, las redes implican un desafío a la estructura piramidal, vertical, de la organización social y proponen una alternativa a esta forma de organización que pueda hacer frente a las situaciones de fragmentación y desarticulación que se vive en la actualidad.
En términos generales, el concepto de red se utiliza para hacer referencia a dos fenómenos: por un lado se consideran redes todos los conjuntos de interacciones que se dan de forma espontánea, y por el otro, y este es el aspecto que interesa destacar, las redes pretenden organizar esas interacciones espontáneas con un cierto grado de formalidad, en el sentido de establecer intereses, problemáticas, preguntas y fines comunes.
MEDIOS DE ENLACE
Medios de enlace
Un sistema de información (SI) es un conjunto organizado de elementos, estos elementos son de 4 tipos:
Personas.
Datos.
Actividades o técnicas de trabajo.
Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no tienen por qué ser de este tipo obligatoriamente).
Todo ese conjunto de elementos interactúan entre si para procesar los datos y la información (incluyendo procesos manuales y automáticos) y distribuirla de la manera más adecuada posible en una determinada organización en función de sus objetivos. Normalmente el término es usado de manera errónea como sinónimo de sistema de información informático, estos son el campo de estudio de la tecnología de la información (IT), y aunque puedan formar parte de un sistema de información (como recurso material), por sí solos no se pueden considerar como sistemas de información, este concepto es más amplio que el de sistema de información informático. No obstante un sistema de información puede estar basado en el uso de computadoras, según la definición de Langefors[1] este tipo de sistemas son:
Un medio implementado tecnológicamente para grabar, almacenar y distribuir expresiones lingüísticas,
así como para extraer conclusiones a partir de dichas expresiones.
Un sistema de información (SI) es un conjunto organizado de elementos, estos elementos son de 4 tipos:
Personas.
Datos.
Actividades o técnicas de trabajo.
Recursos materiales en general (típicamente recursos informáticos y de comunicación, aunque no tienen por qué ser de este tipo obligatoriamente).
Todo ese conjunto de elementos interactúan entre si para procesar los datos y la información (incluyendo procesos manuales y automáticos) y distribuirla de la manera más adecuada posible en una determinada organización en función de sus objetivos. Normalmente el término es usado de manera errónea como sinónimo de sistema de información informático, estos son el campo de estudio de la tecnología de la información (IT), y aunque puedan formar parte de un sistema de información (como recurso material), por sí solos no se pueden considerar como sistemas de información, este concepto es más amplio que el de sistema de información informático. No obstante un sistema de información puede estar basado en el uso de computadoras, según la definición de Langefors[1] este tipo de sistemas son:
Un medio implementado tecnológicamente para grabar, almacenar y distribuir expresiones lingüísticas,
así como para extraer conclusiones a partir de dichas expresiones.
BUS
El bus o barra representa básicamente una serie de cables mediante los cuales pueden cargarse datos en la memoria y desde allí transportarse a la CPU. Por así decirlo es la autopista de los datos dentro de la PC ya que comunica los componentes del ordenador con el microprocesador. El bus se controla y maneja desde la CPU.Red cuya topología se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. De esta forma todos los dispositivos comparten el mismo canal para comunicarse entre sí.
EJEMPLO DE UN BUS DE REDES
http://es.wikipedia.org/wiki/Red_en_bus
EJEMPLO DE UN BUS DE REDES
http://es.wikipedia.org/wiki/Red_en_bus
miércoles, 11 de febrero de 2009
MODELO GAVILAN
Conciente de la importancia del tema de la CMI, una de las habilidades indispensables para el Siglo XXI en la Educación Básica y Media, la Fundación Gabriel Piedrahita Uribe (FGPU) comenzó hace algún tiempo a implementar procesos de solución de problemas de información en tres Instituciones Educativas (IE) de la ciudad de Cali. Utilizó como guía los Modelos“Big6” y OSLA y se concentró en el uso efectivo de Internet como principal fuente de información.
Aunque inicialmente estos Modelos fueron útiles para estructurar actividades de solución de problemas de información que siguieran un orden lógico y para generar algunas estrategias didácticas para llevarlas a cabo efectivamente, con frecuencia se presentaron en el aula problemas prácticos que se debían atender. Por ejemplo:
Dudas por parte del docente sobre cómo utilizar el Modelo y cómo plantear adecuadamente un problema de información con miras a solucionarlo.
Dificultades para lograr que los estudiantes evaluaran críticamente las fuentes de información y desarrollaran criterios para ello. Así mismo, evitar que al buscar, se conformaran con las primeras páginas Web que encontrara el motor de búsqueda.
Inconvenientes para evitar que los estudiantes “copiaran y pegaran” la información, en lugar de que la leyeran y analizaran.
Dificultades para manejar adecuadamente el tiempo disponible para la investigación.
Obstáculos para supervisar y evaluar cada una de las partes del proceso de investigación.
Y especialmente, se observaba que en muchos casos se resolvía el problema de información pero no se desarrollaba la competencia (CMI)
Estas dificultades evidenciaron la necesidad de un Modelo que explicitará con mayor detalle qué debe hacer el estudiante durante cada uno de sus pasos y definiera estrategias didácticas adecuadas para solucionarlas y para garantizar el desarrollo de los conocimientos, habilidades y actitudes que conforman la CMI.
Por estas razones, la FGPU decidió construir un Modelo propio que además de ofrecer orientación para resolver efectivamente Problemas de Información, como lo hacen otros Modelos, tuviera como uno de sus propósitos principales ayudar al docente a diseñar y ejecutar actividades de clase conducentes a desarrollar adecuadamente la CMI.
Para lograrlo, se definieron cuatro Pasos fundamentales, cada uno con una serie de subpasos que explicitan las acciones específicas que deben realizar los estudiantes para ejecutarlos de la mejor manera. Como producto de este esfuerzo surgió el Modelo Gavilán [1].
Los cuatro Pasos del Modelo hacen referencia a procesos fundamentales que están presentes en cualquier proceso de investigación, y que, con uno u otro nombre, son comunes a todos los Modelos consultados.
Los Pasos señalan y atienden una capacidad general que el estudiante debe alcanzar, y los subpasos, los conocimientos y habilidades que se deben poner en práctica como requisito para desarrollarla.
El Modelo Gavilán es el siguiente:
PASO 1: DEFINIR EL PROBLEMA DE INFORMACIÓN Y QUÉ SE NECESITA INDAGAR PARA RESOLVERLO
Subpaso 1a: Plantear una Pregunta Inicial
Subpaso 1b: Analizar la Pregunta Inicial
Subpaso 1c: Construir un Plan de Investigación
Subpaso 1d: Formular Preguntas Secundarias
Subpaso 1e: Evaluación del Paso 1
PASO 2: BUSCAR Y EVALUAR FUENTES DE INFORMACIÓN
Subpaso 2a: Identificar y seleccionar las fuentes de información más adecuadas
Subpaso 2b: Acceder a las fuentes de información seleccionadas
Subpaso 2c: Evaluar las fuentes encontradas
Subpaso 2d: Evaluación Paso 2
PASO 3: ANALIZAR LA INFORMACIÓN
Subpaso 3a: Elegir la información más adecuada para resolver las Preguntas Secundarias
Subpaso 3b: Leer, entender, comparar, y evaluar la información seleccionada
Subpaso 3c: Responder las Preguntas Secundarias
Subpaso 3d: Evaluación Paso 3
PASO 4: SINTETIZAR LA INFORMACIÓN Y UTILIZARLA
Subpaso 4a: Resolver la Pregunta Inicial
Subpaso 4b: Elaborar un producto concreto
Subpaso 4c: Comunicar los resultados de la investigación
Subpaso 4d: Evaluación del Paso 4 y del Proceso
A diferencia de otros Modelos como el “Big 6” y el “Ciclo de Investigación”, el anterior no propone, como paso final una evaluación única, en la cual se miran en retrospectiva todos los pasos anteriores. Propone además subpasos de evaluación al completar cada uno de los Pasos, pues en cada uno de ellos se desarrollan conocimientos, habilidades y actitudes diferentes, que se deben orientar y retroalimentar por separado, sin menoscabar la interdependencia lógica que existe entre un Paso y otro.
Concebir el Modelo como un conjunto de habilidades que pueden evaluarse por separado, permite al docente estructurar actividades cortas enfocadas al desarrollo de una habilidad específica propia de uno de los subpasos o de las habilidades implicadas en todo un Paso. De este modo, el Modelo puede trabajarse en el aula de diversas maneras y no solamente mediante ejercicios que requieran realizar todos los pasos consecutivamente.
Por otra parte, la primera versión del Modelo Gavilán se publicó acompañada de una Metodología específica que compilaba una serie de estrategias didácticas para trabajarlo en el aula, asegurando el desarrollo de la CMI y la solución de los problemas prácticos que se habían observado al aplicar otros modelos. Estas estrategias se diseñaron para plantear, controlar y evaluar de manera sencilla el proceso. Por esta razón, la mayoría de ellas cuentan con diversas herramientas como Plantillas (4), Listas de verificación (2), Organizadores gráficos (2) y Listados de criterios (2), que exigen al estudiante registrar cada una de sus acciones, clarificar conceptos, organizar sus ideas, justificar por escrito sus decisiones, aplicar conocimientos y habilidades y hacer una reflexión conciente sobre lo que está haciendo. Además, permiten optimizar el tiempo disponible, sin sacrificar la calidad formativa de la actividad. A todo lo anterior se le llamó Metodología Gavilán (PDF).
COMENTARIOS PERSONALES
Bueno yo creo que con este modelo vamos a empesar a corregir de manera logica los procesos de informacion con lo que trabajaramos con los modelos de las redes para hacer mas facil el trabajo y entenderle mejor.
Aunque inicialmente estos Modelos fueron útiles para estructurar actividades de solución de problemas de información que siguieran un orden lógico y para generar algunas estrategias didácticas para llevarlas a cabo efectivamente, con frecuencia se presentaron en el aula problemas prácticos que se debían atender. Por ejemplo:
Dudas por parte del docente sobre cómo utilizar el Modelo y cómo plantear adecuadamente un problema de información con miras a solucionarlo.
Dificultades para lograr que los estudiantes evaluaran críticamente las fuentes de información y desarrollaran criterios para ello. Así mismo, evitar que al buscar, se conformaran con las primeras páginas Web que encontrara el motor de búsqueda.
Inconvenientes para evitar que los estudiantes “copiaran y pegaran” la información, en lugar de que la leyeran y analizaran.
Dificultades para manejar adecuadamente el tiempo disponible para la investigación.
Obstáculos para supervisar y evaluar cada una de las partes del proceso de investigación.
Y especialmente, se observaba que en muchos casos se resolvía el problema de información pero no se desarrollaba la competencia (CMI)
Estas dificultades evidenciaron la necesidad de un Modelo que explicitará con mayor detalle qué debe hacer el estudiante durante cada uno de sus pasos y definiera estrategias didácticas adecuadas para solucionarlas y para garantizar el desarrollo de los conocimientos, habilidades y actitudes que conforman la CMI.
Por estas razones, la FGPU decidió construir un Modelo propio que además de ofrecer orientación para resolver efectivamente Problemas de Información, como lo hacen otros Modelos, tuviera como uno de sus propósitos principales ayudar al docente a diseñar y ejecutar actividades de clase conducentes a desarrollar adecuadamente la CMI.
Para lograrlo, se definieron cuatro Pasos fundamentales, cada uno con una serie de subpasos que explicitan las acciones específicas que deben realizar los estudiantes para ejecutarlos de la mejor manera. Como producto de este esfuerzo surgió el Modelo Gavilán [1].
Los cuatro Pasos del Modelo hacen referencia a procesos fundamentales que están presentes en cualquier proceso de investigación, y que, con uno u otro nombre, son comunes a todos los Modelos consultados.
Los Pasos señalan y atienden una capacidad general que el estudiante debe alcanzar, y los subpasos, los conocimientos y habilidades que se deben poner en práctica como requisito para desarrollarla.
El Modelo Gavilán es el siguiente:
PASO 1: DEFINIR EL PROBLEMA DE INFORMACIÓN Y QUÉ SE NECESITA INDAGAR PARA RESOLVERLO
Subpaso 1a: Plantear una Pregunta Inicial
Subpaso 1b: Analizar la Pregunta Inicial
Subpaso 1c: Construir un Plan de Investigación
Subpaso 1d: Formular Preguntas Secundarias
Subpaso 1e: Evaluación del Paso 1
PASO 2: BUSCAR Y EVALUAR FUENTES DE INFORMACIÓN
Subpaso 2a: Identificar y seleccionar las fuentes de información más adecuadas
Subpaso 2b: Acceder a las fuentes de información seleccionadas
Subpaso 2c: Evaluar las fuentes encontradas
Subpaso 2d: Evaluación Paso 2
PASO 3: ANALIZAR LA INFORMACIÓN
Subpaso 3a: Elegir la información más adecuada para resolver las Preguntas Secundarias
Subpaso 3b: Leer, entender, comparar, y evaluar la información seleccionada
Subpaso 3c: Responder las Preguntas Secundarias
Subpaso 3d: Evaluación Paso 3
PASO 4: SINTETIZAR LA INFORMACIÓN Y UTILIZARLA
Subpaso 4a: Resolver la Pregunta Inicial
Subpaso 4b: Elaborar un producto concreto
Subpaso 4c: Comunicar los resultados de la investigación
Subpaso 4d: Evaluación del Paso 4 y del Proceso
A diferencia de otros Modelos como el “Big 6” y el “Ciclo de Investigación”, el anterior no propone, como paso final una evaluación única, en la cual se miran en retrospectiva todos los pasos anteriores. Propone además subpasos de evaluación al completar cada uno de los Pasos, pues en cada uno de ellos se desarrollan conocimientos, habilidades y actitudes diferentes, que se deben orientar y retroalimentar por separado, sin menoscabar la interdependencia lógica que existe entre un Paso y otro.
Concebir el Modelo como un conjunto de habilidades que pueden evaluarse por separado, permite al docente estructurar actividades cortas enfocadas al desarrollo de una habilidad específica propia de uno de los subpasos o de las habilidades implicadas en todo un Paso. De este modo, el Modelo puede trabajarse en el aula de diversas maneras y no solamente mediante ejercicios que requieran realizar todos los pasos consecutivamente.
Por otra parte, la primera versión del Modelo Gavilán se publicó acompañada de una Metodología específica que compilaba una serie de estrategias didácticas para trabajarlo en el aula, asegurando el desarrollo de la CMI y la solución de los problemas prácticos que se habían observado al aplicar otros modelos. Estas estrategias se diseñaron para plantear, controlar y evaluar de manera sencilla el proceso. Por esta razón, la mayoría de ellas cuentan con diversas herramientas como Plantillas (4), Listas de verificación (2), Organizadores gráficos (2) y Listados de criterios (2), que exigen al estudiante registrar cada una de sus acciones, clarificar conceptos, organizar sus ideas, justificar por escrito sus decisiones, aplicar conocimientos y habilidades y hacer una reflexión conciente sobre lo que está haciendo. Además, permiten optimizar el tiempo disponible, sin sacrificar la calidad formativa de la actividad. A todo lo anterior se le llamó Metodología Gavilán (PDF).
COMENTARIOS PERSONALES
Bueno yo creo que con este modelo vamos a empesar a corregir de manera logica los procesos de informacion con lo que trabajaramos con los modelos de las redes para hacer mas facil el trabajo y entenderle mejor.
MODELO APA
El modelo APA es una manera de citar en un texto, tradicionalmente la manera de citar es usando comillas e insertando piés de página, en el modelo APA o APASTYLE es más sencillo: solamente mencionas al autor y el año entre paréntesis y mencionas la idea del autor.
CLASIFICACION DE REDES
LAN (Local Area Network)
Redes de Área Local. Son redes privadas localizadas en un edificio o campus. Su extensión es de algunos kilómetros. Muy usadas para la interconexión de computadores personales y estaciones de trabajo. Se caracterizan por: tamaño restringido, tecnología de transmisión (por lo general broadcast), alta velocidad y topología.
Son redes con velocidades entre 10 y 100 Mbps, tiene baja latencia y baja tasa de errores. Cuando se utiliza un medio compartido es necesario un mecanismo de arbitraje para resolver conflictos.
Son siempre privadas.
Ej: IEEE 802.3 (Ethernet), IEEE 802.4 (Token Bus), IEEE 802.5 (Token Ring)
MAN (Metropolitan Area Network)
Redes de Área Metropolitana: Básicamente son una versión más grande de una Red de Área Local y utiliza normalmente tecnología similar. Puede ser pública o privada. Una MAN puede soportar tanto voz como datos. Una MAN tiene uno o dos cables y no tiene elementos de intercambio de paquetes o conmutadores, lo cual simplifica bastante el diseño. La razón principal para distinguirla de otro tipo de redes, es que para las MAN's se ha adoptado un estándar llamado DQDB (Distributed Queue Dual Bus) o IEEE 802.6. Utiliza medios de difusión al igual que las Redes de Área Local.
Teóricamente, una MAN es de mayor velocidad que una LAN, pero ha habido una división o clasificación: privadas que son implementadas en Áreas tipo campus debido a la facilidad de instalación de Fibra Óptica y públicas de baja velocidad (< 2 Mbps), como Frame Relay, ISDN, T1-E1, etc.
Ej: DQDB, FDDI, ATM, N-ISDN, B-ISDN
WAN (Wide Area Network)
Redes de Amplia Cobertura: Son redes que cubren una amplia región geográfica, a menudo un país o un continente. Este tipo de redes contiene máquinas que ejecutan programas de usuario llamadas hosts o sistemas finales (end system). Los sistemas finales están conectados a una subred de comunicaciones. La función de la subred es transportar los mensajes de un host a otro. En este caso los aspectos de la comunicación pura (la subred) están separados de los aspectos de la aplicación (los host), lo cual simplifica el diseño.
En la mayoría de las redes de amplia cobertura se pueden distinguir dos componentes: Las líneas de transmisión y los elementos de intercambio (Conmutación). Las líneas de transmisión se conocen como circuitos, canales o truncales. Los elementos de intercambio son computadores especializados utilizados para conectar dos o mas líneas de transmisión.
Las redes de área local son diseñadas de tal forma que tienen topologías simétricas, mientras que las redes de amplia cobertura tienen topología irregular. Otra forma de lograr una red de amplia cobertura es a través de satélite o sistemas de radio.
Redes de Área Local. Son redes privadas localizadas en un edificio o campus. Su extensión es de algunos kilómetros. Muy usadas para la interconexión de computadores personales y estaciones de trabajo. Se caracterizan por: tamaño restringido, tecnología de transmisión (por lo general broadcast), alta velocidad y topología.
Son redes con velocidades entre 10 y 100 Mbps, tiene baja latencia y baja tasa de errores. Cuando se utiliza un medio compartido es necesario un mecanismo de arbitraje para resolver conflictos.
Son siempre privadas.
Ej: IEEE 802.3 (Ethernet), IEEE 802.4 (Token Bus), IEEE 802.5 (Token Ring)
MAN (Metropolitan Area Network)
Redes de Área Metropolitana: Básicamente son una versión más grande de una Red de Área Local y utiliza normalmente tecnología similar. Puede ser pública o privada. Una MAN puede soportar tanto voz como datos. Una MAN tiene uno o dos cables y no tiene elementos de intercambio de paquetes o conmutadores, lo cual simplifica bastante el diseño. La razón principal para distinguirla de otro tipo de redes, es que para las MAN's se ha adoptado un estándar llamado DQDB (Distributed Queue Dual Bus) o IEEE 802.6. Utiliza medios de difusión al igual que las Redes de Área Local.
Teóricamente, una MAN es de mayor velocidad que una LAN, pero ha habido una división o clasificación: privadas que son implementadas en Áreas tipo campus debido a la facilidad de instalación de Fibra Óptica y públicas de baja velocidad (< 2 Mbps), como Frame Relay, ISDN, T1-E1, etc.
Ej: DQDB, FDDI, ATM, N-ISDN, B-ISDN
WAN (Wide Area Network)
Redes de Amplia Cobertura: Son redes que cubren una amplia región geográfica, a menudo un país o un continente. Este tipo de redes contiene máquinas que ejecutan programas de usuario llamadas hosts o sistemas finales (end system). Los sistemas finales están conectados a una subred de comunicaciones. La función de la subred es transportar los mensajes de un host a otro. En este caso los aspectos de la comunicación pura (la subred) están separados de los aspectos de la aplicación (los host), lo cual simplifica el diseño.
En la mayoría de las redes de amplia cobertura se pueden distinguir dos componentes: Las líneas de transmisión y los elementos de intercambio (Conmutación). Las líneas de transmisión se conocen como circuitos, canales o truncales. Los elementos de intercambio son computadores especializados utilizados para conectar dos o mas líneas de transmisión.
Las redes de área local son diseñadas de tal forma que tienen topologías simétricas, mientras que las redes de amplia cobertura tienen topología irregular. Otra forma de lograr una red de amplia cobertura es a través de satélite o sistemas de radio.
REDES DE DATOS
En su nivel más elemental, una red de equipos consiste en dos equipos conectados entre sí con un cable que les permite compartir datos. Todas las redes de equipos, independientemente de su nivel de sofisticación, surgen de este sistema tan simple. Aunque puede que la idea de conectar dos equipos con un cable no parezca extraordinaria, al mirar hacia atrás se comprueba que ha sido un gran logro a nivel de comunicaciones.
Las redes de equipos surgen como respuesta a la necesidad de compartir datos de forma rápida. Los equipos personales son herramientas potentes que pueden procesar y manipular rápidamente grandes cantidades de datos, pero no permiten que los usuarios compartan los datos de forma eficiente.
Antes de la aparición de las redes, los usuarios necesitaban imprimir sus documentos o copiar los archivos de documentos en un disco para que otras personas pudieran editarlos o utilizarlos. Si otras personas realizaban modificaciones en el documento, no existía un método fácil para combinar los cambios. A este sistema se le llamaba, y se le sigue llamando, «trabajo en un entorno independiente» .
En ocasiones, al proceso de copiar archivos en disquetes y dárselos a otras personas para copiarlos en sus equipos se le denomina «red de alpargata» (sneakernet). Esta antigua versión de trabajo en red la hemos usado muchos de nosotros, y puede que sigamos usándola actualmente.
Este sistema funciona bien en ciertas situaciones, y presenta sus ventajas (nos permite tomar un café o hablar con un amigo mientras intercambiamos y combinamos datos), pero resulta demasiado lento e ineficiente para cubrir las necesidades y expectativas de los usuarios informáticos de hoy en día. La cantidad de datos que se necesitan compartir y las distancias que deben cubrir los datos superan con creces las posibilidades del intercambio de disquetes.
¿Pero qué sucedería si un equipo estuviera conectado a otros? Entonces podría compartir datos con otros equipos, y enviar documentos a otras impresoras. Esta interconexión de equipos y otros dispositivos se llama una red, y el concepto de conectar equipos que comparten recursos es un sistema en red.
Las redes de equipos surgen como respuesta a la necesidad de compartir datos de forma rápida. Los equipos personales son herramientas potentes que pueden procesar y manipular rápidamente grandes cantidades de datos, pero no permiten que los usuarios compartan los datos de forma eficiente.
Antes de la aparición de las redes, los usuarios necesitaban imprimir sus documentos o copiar los archivos de documentos en un disco para que otras personas pudieran editarlos o utilizarlos. Si otras personas realizaban modificaciones en el documento, no existía un método fácil para combinar los cambios. A este sistema se le llamaba, y se le sigue llamando, «trabajo en un entorno independiente» .
En ocasiones, al proceso de copiar archivos en disquetes y dárselos a otras personas para copiarlos en sus equipos se le denomina «red de alpargata» (sneakernet). Esta antigua versión de trabajo en red la hemos usado muchos de nosotros, y puede que sigamos usándola actualmente.
Este sistema funciona bien en ciertas situaciones, y presenta sus ventajas (nos permite tomar un café o hablar con un amigo mientras intercambiamos y combinamos datos), pero resulta demasiado lento e ineficiente para cubrir las necesidades y expectativas de los usuarios informáticos de hoy en día. La cantidad de datos que se necesitan compartir y las distancias que deben cubrir los datos superan con creces las posibilidades del intercambio de disquetes.
¿Pero qué sucedería si un equipo estuviera conectado a otros? Entonces podría compartir datos con otros equipos, y enviar documentos a otras impresoras. Esta interconexión de equipos y otros dispositivos se llama una red, y el concepto de conectar equipos que comparten recursos es un sistema en red.
HISTORIA DE REDES
Las redes de ordenadores aparecieron en los años setenta muy ligadas a los fabricantes de ordenadores, como por ejemplo la red EARN (European Academic & Research Network) y su homóloga americana BITNET e IBM, o a grupos de usuarios de ordenadores con unas necesidades de intercambio de información muy acusadas, como los físicos de altas energías con la red HEPNET (High Energy Physics Network).
El Departamento de Defensa de los Estados Unidos mediante DARPA (Deffiense Advanced Research Projects Agency) inició a finales de los años sesenta un proyecto experimental que permitiera comunicar ordenadores entre sí, utilizando diversos tipos de tecnologías de transmisión y que fuera altamente flexible y dinámico. El objetivo era conseguir un sistema informático geográficamente distribuido que pudiera seguir funcionando en el caso de la destrucción parcial que provocaría un ataque nuclear.
En 1969 se creó la red ARPANET, que fue creciendo hasta conectar unos 100 ordenadores a principios de los años ochenta. En 1982 ARPANET adoptó oficialmente la familia de protocolos de co-municaciones TCP/IP.
Surgieron otras redes que también utilizaban los protocolos TCP/IP para la comunicación entre sus equipos, como CSNET (Computer Science Network) y MILNET (Departamento de Defensa de Estados Unidos). La unión de ARPANET, MILNET y CSNET en l983 se considera como el momento de creación de Internet.
En 1986 la National Science Foundation de los Estados Unidos decidió crear una red propia, NS Fnet, que permitió un gran aumento de las conexiones a la red, sobre todo por parte de universidades y centros de investigación, al no tener los impedimentos legales y burocráticos de ARPANET para el acceso generalizado a la red. En 1995 se calcula que hay unos 3.000.000 de ordenadores conectados a Internet.
Suscribirse a:
Entradas (Atom)