martes, 21 de octubre de 2008






LA ETOLOGIA


La etología (del griego ethos, que significa "costumbre") es la rama de la biología y de la psicología experimental que estudia el comportamiento de los animales en libertad o en condiciones de laboratorio, como por ejemplo el caso de la caja de Skinner u otros muchos ejemplos en los que las conductas o comportamientos se estudian en condiciones de laboratorio.
Los científicos dedicados a la etología se denominan etólogos. La etología corresponde al estudio de las características distintivas de un grupo determinado y cómo éstas evolucionan para la supervivencia del mismo.
La etología es la ciencia que tiene por objeto de estudio el comportamiento animal. Los seres humanos, también animales, formamos parte del campo de estudio de la etología. Esta especialización se conoce con el nombre de etología humana.
A principios del siglo XX se creó la psicología comparada, que consistía en el estudio de la conducta y las capacidades psicológicas de las diferentes especies animales y que, en este sentido, consideraba la conducta humana como uno de los muchos tipos de conducta animal. Los conductistas utilizaron este método en sus estudios, pero a partir de 1973, cuando los científicos Konrad Lorenzo, Karl von Frisch y Niko Tinbergen recibieron el Premio Nobel por sus estudios sobre la conducta de los animales, la etología comenzó a considerarse ciencia con pleno derecho, y la psicología comparada se integró en esta nueva ciencia.
Los objetivos de los etólogos son el estudio de la conducta, del instinto y el descubrimiento de las pautas que guían la actividad innata o aprendida de las diferentes especies animales. Así, los etólogos han estudiado en los animales aspectos tales como la agresividad, el apareamiento, el desarrollo del comportamiento, la vida social, la impronta y muchos, muchos otros. En estado salvaje, los animales se manejan con ciertos códigos impuestos por la propia lucha por la supervivencia, por ser el más apto para dirigir una manada o ganarse el derecho a comer o a copular primero.

Visita esta dirección y podrás encontrar mucha información sobre lo que son los animales.


martes, 14 de octubre de 2008

EVOLUCIÓN DE INTERNET

A principios de los años 60 Se comienza a pensar en la idea de una red descentralizada en el Instituto Tecnológico de Massachusetts (MIT) y en la corporación RAND.Año

1961 Leonard Kleinrock publica en Julio de este año el primer trabajo sobre "conmutación de paquetes.

Año 1962 En agosto de este año, aparece la primera descripción documentada de las interacciones sociales que podrían ser propiciadad por el trabajo en red en una serie de memorándums escritos por J.C.R. LickLider, del MIT.

Año 1966 A finales de este año Lawrence G. Roberts se trasladó a ARPA para desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANet. En la conferencia en que presentó el documento se exponía también un trabajo sobre el concepto de red de paquetes a cargo de Donald Davies y Roger Scantlebury del NPL. La palabra packet (paquete) fue adoptada a partir del trabajo del NPL y la velocidad de la línea propuesta para ser usada en el diseño de ARPANet fue aumentada desde 2,4 Kbps hasta 50 Kbps.

Año 1972 El primer programa específicamente diseñado para el email se atribuye a Ray Tomlinson, de la BBN (Bolton, Beranek and Newman),

en 1972. Se remitió el primer mensaje de correo electrónico usándose el conocido símbolo de la arroba, @. El símbolo @ se convirtió en el símbolo del correo electrónico por pura casualidad. Ray Tomlinson necesitaba un signo que separara el nombre del usuario del de la máquina.

Año 1973 Durante el mes de setiembre de este año hubo una importante reunión en Brighton (Inglaterra) donde los americanos mostraron por primera vez a los europeos el funcionamiento de ArpaNet. Para que ello fuera posible tuvieron que realizar un enlace vía satélite, provisional durante unos dias, que transportaba los datos a través del Atlántico. Leonard Kleinrock volvió a los Angeles unos días antes que finalizara el congreso y cuando llegó a casa se dio cuenta que se había dejado una máquina de afeitar y descubrió que, efectivamente, en Brighton aún estaba conectado Larry Roberts.

Año 1977 Aparece la primera lista de correo. Se trataba de TheryLink y agrupaba a casi un centenar de científicos.

En 1979 nacería Usenet y hoy hay más de 50.000 newsgroups o grupos de noticias en el mundo. El crecimiento tan brutal de las listas obligó en 1987 a crear las jerarquías (las primeras fueron .comp, .news y .misc).

Año 1980 Aparecen las primeras aplicaciones TCP/IP. Internet ya tiene 212 servidores.
Año

1983 ARPANet en sí mismo permaneció estrechamente controlado por el departamento de defensa hasta 1983 cuando su parte estrictamente militar se segmentó convirtiéndose en MILNET. El Pentágono se retira de Arpanet y crea Milnet. Internet ya dispone de 562 servidores. Se creó el sistema de nombres de dominios (.com, .edu, etc., más las siglas de los países), que prácticamente se ha mantenido hasta ahora

Año 1984 Se introduce el DNS (Domain Name Server) En 1984 el número de servidores conectados a la red había ya superado los 1.000. Dado que el software de TCP/IP era de dominio público y la tecnología básica de Internet (como ya se denominaba esta red internacional extendida) era algo anárquica debido a su naturaleza, era difícil evitar que cualquier persona en disposición del necesario hardware (normalmente en universidades o grandes empresas tecnológicas) se conectase a la red desde múltiples sitios.Internet tiene ya 1961 servidores. En abril aparecen los primeros dominios con letra (antes eran con números). Los primeros dominios con letras en aparecer fueron: acmu.edu, purdue.edu, rice.edu y ucla.edu, todos en activo aún por supuesto y todos universitarios también por supuesto. El primer dominio comercial en aparecer es algo no aclarado. Para algunos fue simbolics.com (un fabricante de software y hardware para el lenguaje de inteligencia artificial Lisp, esta página ya no funciona) y para otros think.com. En junio del mismo año apareció el primer dominio gubernamental, css.gov y en julio mitre.org. El primer dominio de un país fue en julio de ese mismo año para Gran Bretaña: co.uk

Año 1987 El número de servidores conectados a Internet superaba ya los 10.000 Año

1988 Internet ya dispone de 56.000 servidores

Año 1991 En febrero de 1991 es la fecha que se cita como la invención del denominado Spam, el envio masivo de correo electrónico no solicitado. Según estas fuentes todo empezó inocentemente: se trataba de enviar mensajes a un niño de 9 años llamado Craig Shergold gravemente enfermo. El muchacho intentaba batir el record mundial de cartas recibidas y lo consiguió. Ello dio ideas a algunas empresas y

en abril de 1994 una empresa de abogados, Center&Siegel tuvo el dudoso honor de empezar a usar comercialmente el correo electrónico para envios masivos no solicitados. La venganza que recibieron de la red por lo visto aun les dura. En marzo de 1991 Tim Beners-Lee pone en marcha el primer navegador de la web (que funcionaba aún con linea de comandos de modo que a años luz del lujo actual). Tim, el creador de la web, ya había creado en el año 1980 programas hipertextuales.

Año 1993 Aparece el primer visualizador gráfico de páginas web: Mosaic, el antecesor de Netscape.El conocido navegador WWW Mosaic se desarrolló en el National Center for Supercomputing. Con la extensión de los ordenadores personales y el lanzamiento del primer navegador de la WWW popular, Mosaic, en 1993, ya había llegado el momento de "surfear la Web" (la expresión se registró por primera vez ese mismo año).

Año 1995 En octubre de 1995 Netscape puso en la red el primer navegador. Para celebrarlo sus desarrolladores hicieron una fiesta con pizzas e instalaron un apantalla gigante para ver en la Silicon Graphics como empezaban a descolgarse navegadores. El primer usuario de Netscape fue un japonés y a medianoche los desarrolladores se dieron cuenta que el servidor indicaba qué versión era la que la gente se estaba bajando así que pusieron un sonido diferente para la de Windows, Mac y Unix que se oía cada vez que empezaba un download. En 1995 había más de 5 millones de servidores conectados a Internet. La espina dorsal de NSFNET empezaba a ser sustituido por proveedores comerciales interconectados

Año 1997 Ya hay 17 millones de servidores en la red. Año 1999 El tremendo crecimiento de la red, unido a la autonomía de su funcionamiento, hacen que grandes zonas de sus contenidos estén en la penumbra: según datos de

1999 el conjunto de los grandes buscadores de páginas en la Malla Mundial sólo conoce el contenido de menos del 50% e la red. La Última iniciativa, Internet 2, propone crear un espacio aparte y de más calidad de comunicaciones para instituciones de investigación

Año 2000 Internet está formada, no solamente de restos de la ARPANet original, sino que también incluye redes como la Academia Australiana de Investigación de redes (AARNET), la NASA Science Internet (NSI), la Red Académica de Investigación Suiza (SWITCH), por no mencionar las miles de redes de mayor o menor tamaño de tipo educativo y de investigación

¿QUE ES EL INTERNET 2.0?
es un consorcio sin fines de lucro que desarrolla aplicaciones y tecnologías de redes avanzadas, la mayoría para transferir información a alta velocidad. Internet2 es una red telemática desarrollada principalmente por las universidades estadounidenses, construida en fibra óptica y permite altas velocidades con una gran fiabilidad. Es llevado por 212 universidades de Estados Unidos y otras 60 compañías tecnológicas como Comcast, Microsoft, Intel, Sun Microsystems y Cisco Systems. Algunas de las tecnologías que han desarrollado han sido IPv6, IP Multicast y Calidad de Servicio (QoS).
Las velocidades mínimas son:
1-622 ps para un miembro de I2 (universidades y socios). 2-50 Mbps para un usuario particular.
La enseñanza, el aprendizaje y la investigación, en colaboración, pueden requerir interconexión y altas conexiones de banda ancha en tiempo real. La infraestructura básica de Internet2 soporta esas aplicaciones, conocidas como Learning–ware. También han desarrollado otras aplicaciones para entornos de alta velocidad como los laboratorios virtuales (LAV), la telemedicina y la tele inmersión.Para conectarse a Internet2 necesitas que tu red de alta velocidad esté conectada a un GigaPop de Internet2; también puedes conectarte a través de Internet usando un backbone. Aunque existen muchas similitudes con Internet, la nueva red no pretende sustituir a la antigua, al menos a corto plazo.

ejemplo

En El Salvador, la encargada de Internet2 y su coordinación es UFG. (Universidad Francisco Gavidia) y RAICES.
http://es.wikipedia.org/wiki/Internet2



¿QUÉ ES LA RSS?


RSS: es un sencillo formato de datos que es utilizado para redifundir contenidos a suscriptores de un sitio web. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS. A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).




¿QUÉ ES LA WEB 1.0?
Es un tipo de web estática con documentos que jamás se actualizaban y los contenidos dirigidos a la navegación (HTML y GIF).



¿QUÉ ES LA WEB 2.0?
La Web 2.0 es la representación de la evolución de las aplicaciones tradicionales hacia aplicaciones web enfocadas al usuario final. El Web 2.0 es una actitud y no precisamente una tecnología. La Web 2.0 es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del web enfocadas al usuario final.


La web 2.0: es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. Muchos aseguran que hemos reinventado lo que era el Internet. Y es que cuando el web inició, nos encontrábamos en un entorno estático, con páginas en HTML que sufrían pocas actualizaciones y no tenían interacción con el usuario.
Constantemente estaban surgiendo nuevas aplicaciones y sitios con sorprendentes

funcionalidades. Y así se dio la pauta para la Web 2.0 conferencia que arranca en el 2004 y hoy en día se realiza anualmente en San Francisco, con eventos adicionales utilizando la marca en otros países.En la charla inicial del Web Conferencia se habló de los principios que tenían las aplicaciones Web 2.0:1-La web es la plataforma 2-La información es lo que mueve al Internet 3-Efectos de la red movidos por una arquitectura de participación. 4-La innovación surge de características distribuidas por desarrolladores independientes. 5-El fin del círculo de adopción de software pues tenemos servicios en beta perpetuo.



Ejemplos de la web 2.0
Entender la evolución que ha llegado con la Web 2.0 puede realizarse con ejemplos, con proyectos. Podemos comparar servicios web que marcan claramente la evolución hacia el Web 2.0 con una nueva forma de hacer las cosas:


1-Web 1.0 > Web 2.0

2-Doubleclick –> Google AdSense (Servicios Publicidad)

3-Ofoto –> Flickr (Comunidades fotográficas)

4-Akamai –> BitTorrent (Distribución de contenidos)

5-mp3.com –> Napster (Descargas de música)

6-Britannica Online –> Wikipedia (Enciclopedias)

7-Sitios personales –> Blogs (Páginas personales)

8-Especulación con dominios –> Optimización en motores de búsqueda SEO

9-Páginas vistas –> Costo por click

10-CMSs –> Wikis (Administradores de contenidos)

11-Categorías/Directorios –> Tags .




¿QUÈ ES LA WEB 3.0?
Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos.Las tecnologías de la Web 3.0, como programas inteligentes, que utilizan datos semánticos; se han implementado y usado a pequeña escala en compañías para conseguir una manipulación de datos más eficiente. En los últimos años, sin embargo, ha habido un mayor enfoque dirigido a trasladar estas tecnologías de inteligencia semántica al público general.

El primer paso hacia la "Web 3.0" es el nacimiento de la "Data Web", ya que los formatos en que se publica la información en Internet son dispares, como XML, RDF y micro formatos; el reciente crecimiento de la tecnología SPARQL, permite un lenguaje estandarizado y API para la búsqueda a través de bases de datos en la red. La "Data Web" permite un nuevo nivel de integración de datos y aplicación inter-operable, haciendo los datos tan accesibles y enlazables como las páginas web.

Web 3.0 también ha sido utilizada para describir el camino evolutivo de la red que conduce a la inteligencia artificial. Algunos escépticos lo ven como una visión inalcanzable. Sin embargo, compañías como IBM y Google están implementando nuevas tecnologías que cosechan información sorprendente, como el hecho de hacer predicciones de canciones que serán un éxito, tomando como base información de las webs de música de la Universidad.




La Web 03 en el Turismo
La WEB 03 es una poderosa herramienta de promoción y venta de servicios turísticos, sin embargo su aplicación o manejo por parte de las empresas de turismo aún no se ha popularizado. http://es.wikipedia.org/wiki/Web_3.0

martes, 7 de octubre de 2008




LA EMBRIOLOGÍA
La Embriología es la ciencia biológica que estudia el desarrollo prenatal de los organismos y trata de comprender y dominar las leyes que lo regulan y rigen. El interés en el estudio del desarrollo prenatal es grande, ello se debe a una curiosidad natural, por el hecho de que muchos fenómenos de la vida postnatal tienen su origen y explicación en la etapa de desarrollo prenatal y es importante conocerlos con el fin de lograr una mejor calidad de vida en el ser humano. La anatomía del desarrollo es el campo de la embriología que se ocupa de los cambios morfológicos que ocurren en las células, tejidos, órganos y cuerpo en su conjunto desde la célula germinal de cada progenitor hasta el adulto resultante, la fisiología del desarrollo por otro lado explica el funcionamiento del organismo en estas etapas, sin embargo el desarrollo humano es un proceso continuo que se inicia con la fecundación y termina con la muerte, aunque la mayoría de los procesos tienen lugar en etapa prenatal otros se extienden mas allá del nacimiento, ello ha llevado a que se conozca a la Embriología con estos horizontes ampliados como Biología del Desarrollo.
en esta direccion podras encontrar mas hacerca de lo que es este interesante tema camo lo es la embriologia.