lunes, 11 de junio de 2012

BLOQUE II. CAMPOS TECNOLOGICOS Y DIVERSIDAD CULTURAL

2.1. La construcción social de los sistemas técnicos


Las tecnologías de la información y la comunicación (TIC o bien NTIC para nuevas tecnologías de la información y de la comunicación) agrupan los elementos y las técnicas usados en el tratamiento y la transmisión de la información, principalmente lainformáticaInternet y las telecomunicaciones.
Por extensión, designan un sector de actividad económica.

"Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se dispone de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua" (Kofi Annan, Secretario general de la Organización de las Naciones Unidas, discurso inaugural de la primera fase de la WSIS, Ginebra 2003)1
El uso de las tecnologías de la información y la comunicación ayudaría a disminuir la brecha digital aumentando el conglomerado de usuarios que las utilicen como medio tecnológico para el desarrollo de sus actividades.

2.2. Las generaciones tecnológicas y la configuración de campos tecnológicos

2.3. Las aportaciones de los conocimientos tradicionales de diferentes culturas en la configuración de los campos tecnológicos
2.4. 

LA CONSTRUCCION SOCIAL DE LOS CAMPOS TECNOLÓGICOS



La construcción social de los sistemas técnicos.
La tecnología, resultado de conocimientos y aplicaciones prácticas, soluciona necesidades;
la tecnología se vale por sistemas técnicos cuya función es transformar algún tipo de materia prima para obtener determinados productos.
La organización de las tareas de los sistemas técnicos es tan importante como su,operación.
Actualmente, estos sistemas pueden ser aceptados o no, dependiendo de sus capacidades para resolver problemas dentro de los contextos sociales donde se producen.

2.1. GENERACIONES TECNOLÓGICAS Y CONFIGURACIONES DE CAMPOS TECNOLÓGICOS.

    Las innovaciones tecnológicas han configurado a las culturas en el siglo XX tanto en el conjunto de formas de vida como en los modos de organización social, económica y política.

    El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación de un conjunto de técnicas diversas con propósitos comunes. Los campos tecnológicos están constituidos por artefactos en los que se incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas, organizaciones sociales y están ubicados, en la base de los procesos productivos.


    CAMPOS TECNOLÓGICOS Y SU IMPORTANCIA


El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación d en conjunto de técnicas.


Los campos tecnológicos están constituidos por artefactos en los que incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas y organizaciones sociales.Los campos tecnológicos se generan en todas las actividades que realizan los seres humanos, desde las culturales y sociales como la educación y la salud.


 

   

Que es Un sistema técnico?
Se estructura, por la relación y mutua interdependencia, entre los seres humanos,  las herramientas o maquinas, los materiales ,y el entorno para la obtención de un producto o situación deseada y se caracteriza por la operación organizada de saberes y conocimientos expresados en un conjunto de acciones tanto para la toma de decisiones como para su ejecución y regulación .
Todo sistema técnico es organizado por que sus elementos interactúan en el tiempo y el espacio de manera intencional es dinámico por que cambia constantemente conforme   los aberes sociales avanzan y es sinérgico porque de la interacción de sus elementos se logran mejores resultados. 




¿Diferentes  empresas que fabrican computadoras y programas?
3COM http: //www.3com.com
Acer http://www.acer.com
Adaptec http://www.adaptec.com
Advanced Micro Devices http://www.amd.com
America Power Conversion http://www.apc.com
Apple Computer http://www.apple.com
Artisoft http://www.artisoft.com
AT&T http://www.att.com
Attachmate http://www.attachmate.com
Boca Research http://www.boca.org
Borland http://www.borland.com
Cabletron Systems http://www.ctron.com
Caere Corporation http://www.caere.com
Canon http://www.canon.com
Cheyenne Software http://www.chey.com
Cisco Systems http://www.cisco.com
Compaq Computer Corp http://www.compaq.com
Computer Associates http://www.cai.com
Conner Peripherals http://www.conner.com
Corel Corporation http://www.corel.ca
Cyrix Corporation http://www.cyrix.com
Delrina Corporation http://www.delrina.com
Diamond Multimedia Systems http://www.diamondmm.com
Digital Equipment Corporation http://www.digital.com
Epson http://www.epson.com
Fujitsu Computer Products http://www.fujitsu.com
Hewlett – Packard http://www.hp.com
IBM http://www.ibm.com
Intel http://www.intel.com
Kodak http://www.kodak.com
Lexmark http://www.lexmark.com
Lotus Development http://www.lotus.com
Macromedia http://www.macromedia.com
Maxtor Corporation http://www.maxtor.com
McAfee Associates http://www.mcafee.com
Micrografx http://www.micrografx.com
Micropolis http://www.microp.com
Microcosft http://www.microsoft.com
Motorola http://www.motorola.com
Multi-Tech Systems http://www.multitech.com
NEC Technologies http://www.nec.com
Novell http://www.novell.com
Okidata http://www.okidata.com
Packard Bell http://www.packardbell.com
QMS, Inc. http://www.qms.com
Quarterdeck http://www.qdeck.com
Samsung http://www.samsung.com
Seagate Technologies http://www.seagate.com
Silicon Graphics http://www.sgi.com
Sony http://www.sony.com
Standard Micro Systems http://www.smc.com
Strategic Resource Corp http://www.icanect.net/strategy
Sun Micro Systems http://www.sun.com
Sybase http://www.zds.com
Tektronics http://www.tek.com
Texas Instruments http://www.ti.com
Toshiba http://www.toshiba.com
U.S. Robotics http://www.usr.com
Viewsonic Corporation http://www.viewsonic.com
Western Digital http://www.wdc.com
Xerox http://www.xerox.com
Xircom http://www.xircom.com
Zenith Data Systems http://www.zds.com
PC Magazine Latin America (Revista) http://www.editorial-televisa.com
http://www.monografias.com/trabajos81/glosario-informatico-listado-empresas-informaticas/glosario-informatico-listado-empresas- informáticas 2.shtml





Evolución Sistemas Operativos; 

A lo largo de la historia, han aparecido diferentes SSOO que, en cada momento, se encargaban de recoger las características punteras de lo que se descubría en el mundo de la informática. Hoy en día, sin ir más lejos, se están desarrollando potentes SSOO basados en la Programación Basada en Objetos (POO), que, dicho sea de paso ha sido la última evolución de la informática, hace ya casi 10 años.
Lo primero es hacer constar que, lo que nos venden hoy en día como "moderno", es casi seguro que ya se utilizaba desde hace muchísimo tiempo en otros SSOO. El concepto de Sistema Operativo, no es ni mucho menos nuevo. Los primeros SSOO aparecieron a finales de los años 50; al comienzo de la informática. Al principio, los primeros SSOO eran monousuario y monotarea, algo así como el DOS. Pero con la direferencia de que se gobernaba con tarjetas perforadoras en vez de Diskettes.
Pronto empezaron a surgir nuevos conceptos y tras la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que estaban mezcladas todas las filosofías que hasta entonces se había descubierto en este mundo de la informática. Este SO se denominó Multics, son mediados de los años 60. Poco tiempo despues, se dieron cuenta los diseñadores de este SO que era enfarragoso y muy difícil de administrar, así pues se cogió la esencia misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y a finales de los 60 sacan la primera versión de un SO que revolucionaría la informática; el Unix.
El Unix es hoy en dia, casi 30 años despues de su primera versión, para mucha gente que se dedica al mundo de los ordenadores, el único SO de redes real. De hecho es el que se maneja en las administraciones y redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las redes.
Este panorama se siguió durante unos cuantos años, entre los cuales, en el mundo de los SSOO se iban sacando a la luz nuevas conceptos y todos ellos emanaban del Unix. Uno de esos conceptos era la Memoria Virtual, tan ampliamente utilizada en los SSOO modernos.
Dando un gran salto en el tiempo nos vamos a finales de los años 70. Por aquel entonces una casa de ordenadores sacó el primer ordenador personal, o al menos, como se le conoce hoy en día, esa casa fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar ordenadores personales, entre ellas emergió IBM. Cada una de esas casas diseñó una serie de SSOO para sus máquinas; Apple el Mac OS, IBM el CP/M, que pronto fue sustituido por un SO que diseñó un jovencísimo Bill Gates y sus colegas, el DOS. Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo usuario. Por contra, elMac OS diseñaba un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la tendencia de los SSOO que se diseñaron hasta entonces.
Mientras IBM optó por compartir sus licencias a todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que conocemos hoy en día. Una arquitectura basada en la conectividad de fabricantes; PC y compatibles, y una arquitectura totalmente particular como son los Apple.
Siguieron pasando los años y a mediados de los 80 surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a sustituir el DOS, ese Sistema fue el OS/2. Este sistema aprovechaba las nuevas características de los PCs de entonces e introdujo un concepto nuevo al DOS, la multitarea. Poco tiempo despues se produjo una ruptura sonada, el duo Microsoft-IBM se rompía. Por un lado IBM seguiría con el OS/2, por otro lado Microsoft desarrolló un programa basado en el caracter intuitivo del interfaz gráfico del Macintosh, Windows. Este programa, que en principio fue catalogado como el juguete de los niños ricos, ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa más vendido para PCs.
En principio no fue nada más que una aplicación que necesitaba del DOS, pero el tiempo y los usuarios demandaron que se convirtiera a un SO completo. Tras varios años en los que MS veía como subía su prestigio en el mercado de los PCs hasta cotas casi impensables 10 años antes (el 80% de los SSOO que se utilizan en el mundo son de MS y el 65% de las Suites de oficina también, sin contar con otras aplicaciones como compiladores, Servidores SQL, etc), se sacó elWindows 95. El SO más utilizado hoy en día en todo el mundo, que no el mejor.
Entre sus características destacan la multitarea, un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la luz de Windows 95, MS acaba con la vida del DOS como tal (aunque muchos usuarios piensan que Windows 95 no es sino el DOS renovado por el tiempo, entre ellos el escribiente) y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15 años. Hoy en día, que las aplicaciones son viejas al año, constituye todo un record que va a ser muy difícil de superar.
Volviendo hacia atrás la mirada, no mucho, desde el año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de un SO que aprovechara la interfaz de Windows, pero orientado al mundo empresarial. Ese embrión fue denominado NT, y luego rebautizado a Windows NT. Ese SO aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta entonces seguía dominada por el Unix, que cumplía su añete 22 de existencia, todo un mozalbete. Tras un par de años de esfuerzos sale a la luz Windows NT y sus características son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus contras son excesivos recursos para poder ser utilizado en una red medianamente grande.
Entre medias de todo este circo de MS, IBM sigue mejorando el OS/2 hasta unas cotas muy altas. Y es en 1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía como SO el DOS), cuando IBM saca el OS/2 3.0, apodado Warp. Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme amén de una compatibilidad hasta entonces no posible. Era capaz de ejecutar aplicaciones DOS, más rápidas y con más estabilidad que el DOS. Y lo mismo con Windows. Las aplicaciones Windows se ejecutaban mejor y de forma más estable sobreOS/2 que sobre el propio Windows, además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.
Pese a todo este esfuerzo, la gente sigue esperando el nuevo SO de MS para el mundo doméstico. Ya llevaba más de un año de retraso, ya que la última versión de Windows para el PC se sacó a finales de 1991. Y se hace con MS lo que nunca se había hecho con ninguna casa de Software; darle una prórroga de más de un año. Cualquier casa que hubiera tardado todo ese tiempo en sacar algo al mercado que previamente hubiera estado anunciándolo, hubiera sido retirada del mercado por obligación de la demanda de los usuarios. Yo creo que es cuando Bill Gates se da cuenta de una cosa, no importa si el SO es mejor o peor, no importa el retraso, lo único que importe es que sea MS y sea una versión mejor que la anterior.
El año que va desde mediados de 1994 hasta finales de 1995 (que es cuando MS saca el Windows 95) el OS/2, pese a lo que se pudiera suponer, no experimenta un gran crecimiento. Sin embargo, MS iba a provechar ese tiempo muy bien. No fue un retraso debido a mejoras del SO (como fue justificado el retraso), ya que cuando Windows 95 salió seguía adoleciendo de la inestabilidad de su antecesor y era más lento que OS/2. Ese tiempo, lo dedicó al esfuerzo más grande que ha existido por desmarcarse del resto de la competencia. Ese año se dedicó a crear las APIs (herramientas que utilizan los desarrolladores de software para un SO) más difíciles del mercado, y MS daría esa documentación a los desarrolladores siempre y cuando no desarrollasen software en otro SO.
Si sumamos lo comentado en los dos últimos párrafos tenemos la jugada ganadora de MS. El porqué de su éxito. A mi entender cuando a la salida de Windows 95, la gente lo compró de forma masiva, se dió una puñalada de muerte a la que fue edad de oro de la informática. Pero ese es otro tema, ahora estamos haciendo un poco de historia sobre el mundo de los SSOO.
A finales de 1991 surge el fenómeno más revolucionario que ha existido en la informática. Una persona llamada Linus Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico del Unix. Hasta entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello pide ayuda por Internet. Pese a que no hace falta voy a poner el mensaje que anunció a otros programadores, aunque sólo sea por hacer un pequeño homenaje a esta persona.
"¿Echas de menos los días de Minix 1.1, cuando los hombres eran hombres, y escribían sus propios
drivers?
¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu antojo?
¿Te frusta disponer sólo de Minix?
¿Pasas las noches en vela para depurar tus cuidados programas?
Este anuncio puede ser lo que buscas.
Como mencioné hace meses, estoy trabajando en una versión similar a Minix para máquinas AT-386. 
Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y estoy pensando en publicar las fuentes para su difusión, Sólo es la versión 0.2... Pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros...”
Mucha gente empezó a trabajar en el sistema. A partir de la versión 0.99, en Navidades de 1993, comenzó la distribución masiva. Lo que llamaba la atención de este proyecto es que era gratis. Y totalmente anónimo. No había una casa detrás de él que se hiciera responsable del proyecto. En estos días que la marca lo es todo, no sólo resultó romántico sino que mucha gente se interesó por el tema más de lo debido. Hoy por hoy, Linux (así se llamó el proyecto, en honor a su inventor) es el clónico Unix más vendido del mundo y no sólo eso, sino que debido a que toda la información sale por Internet, salen versiones cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son más rápidas las versiones Unix de Linux que las de los propios fabricantes tales como Sun, IBM o SCO. Si a eso le sumamos que el año 1996 la NASA eligió como mejor SO de redes al Linux RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.
El período que va desde 1993 hasta 1996 se caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso jugar la baza de introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una nueva versión del OS/2, destinado a sustituir al DOS, MS también sacó Windows 3.xx y Windows 95 que finalmente fueron los estándares del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos, incluso ya en centros universitarios. No olvido las versiones del Mac OS para el Apple, es decir, que se tenía una gran oferta de SSOO y todos ellos buenos.
MS, con Windows NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero con el mismo problema de sus antecesoras, el excesivo número de recursos necesarios para administrar una red medianamente grande.
Y estamos en 1996, el año que va hasta la fecha de hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel particular (Windows 95) o a nivel de redes (Windows NT), si bien en este último le queda por luchar dos grandes batallas que se me antojan imposibles, ambas se llaman de parecida forma, Linux/Unix. El SO de los grandes ordenadores, grandes redes o simplemente, de las administraciones, y últimamente, de pequeños usuarios generalmente universitarios. Pese a ser viejo, el Unix, es sin duda ninguna, el SO para las redes.
Resumiendo, tras este período de cerca de 30 años de historia, hay una serie de SSOO, que gozan, justa o injustamente de salud para suministrar al usuario herramientas suficientes para crear un ordenador desde casa con capacidad plena de conexión a Internet.








•Origen y Evolución del Internet!



Los orígenes de Internet se remontan a más de veinticinco años atrás, como un proyecto de investigación en redes de conmutación de paquetes, dentro de un ámbito militar. A  finales de los años sesenta (1969), en plena guerra fría, el Departamento de Defensa Americano (DoD) llegó a la conclusión de que su sistema de comunicaciones era demasiado vulnerable. Estaba basado en la comunicación telefónica (Red Telefónica Conmutada, RTC), y por tanto, en una tecnología denominada de conmutación de circuitos, (un circuito es una conexión entre llamante y llamado), que establece enlaces únicos y en número limitado entre importantes nodos o centrales, con el consiguiente riesgo de quedar aislado parte del país en caso de un ataque militar sobre esas arterias de comunicación.
Como alternativa, el citado Departamento de Defensa, a través de su Agencia de Proyectos de Investigación Avanzados (Advanced Research Projects Agency, ARPA) decidió estimular las redes de ordenadores mediante becas y ayudas a departamentos de informática de numerosas universidades y algunas empresas privadas. Esta investigación condujo a una red experimental de cuatro nodos, que arrancó en Diciembre de 1969, se denominó ARPAnet. La idea central de esta red era conseguir que la información llegara a su destino aunque parte de la red estuviera destruida.
ARPA desarrolló una nueva tecnología denominada conmutación de paquetes, cuya principal característica reside en fragmentar la información, dividirla en porciones de una determinada longitud a las que se llama paquetes. Cada paquete lleva asociada una cabecera con datos referentes al destino, origen, códigos de comprobación, etc. Así, el paquete contiene información suficiente como para que se le vaya encaminando hacia su destino en los distintos nodos que atraviese. El camino a seguir, sin embargo, no está preestablecido, de forma que si una parte de la red cae o es destruida, el flujo de paquetes será automáticamente encaminado por nodos alternativos. Los códigos de comprobación permiten conocer la pérdida o corrupción de paquetes, estableciéndose un mecanismo que permite la recuperación.  Este sistema de transmisión reúne múltiples ventajas: 
  • Fiabilidad, independiente de la calidad de líneas utilizadas y de las caídas de la red.
  • Distribución más fácil de los datos dado que al contener cada paquete la información necesaria para llegar a su destino, tenemos que paquetes con distinto objetivo pueden compartir un mismo canal o camino de comunicaciones.
  • Posibilidad de técnicas de compresión que aumentan la capacidad de transmisión y de encriptado que permiten una codificación, de forma que se asegure la confidencialidad de los datos.
Al igual que los equipos o las conexiones también se evolucionó en los servicios que ofrecía ARPAnet, ya que si bien al principio sólo permitía ejecutar programas en modo remoto, en 1972 se introdujo un sistema de correo electrónico, que liberó a los usuarios de la dependencia de los husos horarios (algo de importancia evidente en Estados Unidos, por su gran extensión), y supuso un sorprendente aumento en el tráfico generado, convirtiéndose en la actividad que mayor volumen generaba, en contra de las previsiones iniciales.
Para que los ordenadores puedan comunicarse entre sí es necesario que todos ellos envíen y reciban la información de la misma manera. La descripción de los pasos a seguir se denomina “protocolo”. En 1974, se presentó el protocolo “Transmission Control Protocol / Internet Protocol” (TCP/IP). Este protocolo proporcionaba un sistema independiente de intercambio de datos entre ordenadores y redes locales de distinto origen, eso sí, conservando las ventajas relativas a la técnica de conmutación de paquetes.
A principios de los ochenta el Departamento de Defensa de Estados Unidos decidió usar el protocolo TCP/IP para la red ARPAnet, desdoblándola en Arpanet y Milnet, siendo esta segunda de uso exclusivamente militar, conectada a Arpanet bajo un tráfico extremadamente controlado. Igualmente en Europa se creó la red Minet, como extensión de Milnet.
Dado que una gran cantidad de las organismos tenían sus propias redes de area local (RAL) conectadas a los nodos de la red se fue evolucionando hacia una red llamada ARPA Internet formada por miles de equipos. El nombre sufrió algunos cambios más, como: Federal Research Internet, TCP/IP Internet y finalmente, INTERNET.
Durante los últimos años ochenta Internet creció hasta incluir el potencial informático de las universidades y centros de investigación, lo que unido a la posterior incorporación de empresas privadas, organismos públicos y asociaciones de todo el mundo supuso un fuerte impulso para Internet que dejó de ser un proyecto con protección estatal para convertirse en la mayor red de ordenadores del mundo, formada por más de cincuenta mil redes, cuatro millones de sistemas y más de setenta millones de usuarios.
Teniendo en  cuenta que se estima un crecimiento del censo de usuarios de Internet de aproximadamente un diez por ciento mensual, se deduce que para el año dos mil se superarían los trescientos millones de usuarios conectados a la ‘Red de redes’. Internet no es simplemente una red de ordenadores, es decir, unos cuantos ordenadores conectados entre sí. Se trata de una asociación de miles de redes conectadas entre sí. Todo ello da lugar a la “RED DE REDES”, en la que un ordenador de una red puede intercambiar información  con otro situado en una red remota.
En gran parte, este espectacular crecimiento se debe a la notable mejora en la facilidad de uso de los servicios ofrecidos, dado que, aún manteniéndose los servicios originales de transferencia de ficheros, correo electrónico o acceso remoto, la irrupción de la ‘TELARAÑA MUNDIAL’, World Wide Web (www), un servicio de consulta de documentos hipertextuales, ha sido el paso definitivo hacia la popularidad de la que actualmente goza. 
Elementos imprescindibles para acceder a Internet
Para utilizar Internet no es preciso entender exactamente cómo funciona, aunque un poco de información al respecto nunca está de más. Son necesarios los siguientes elementos:
  • El PC y el módem:  a Internet se accede desde un PC conectado al proveedor mediante un módem que por su puesto deberá estar conectado a una línea telefónica.
  • Proveedor: abre las puertas de Internet. El proveedor te proporciona acceso a la Red, un número de teléfono para acceder a ella y una dirección de correo electrónico.
Servicios básicos en Internet
 
Los principales servicios que ofrece Internet son:
  • Correo electrónico: gracias a él se mandan mensajes a cualquier persona que disponga de una cuenta en Internet. Los mensajes abarcan tanto texto como ficheros informáticos de cualquier característica, que se almacenan en el servidor de correo hasta que el destinatario se conecta y los recoge. El correo electrónico es una forma rápida de y barata de comunicarse con todo el mundo.
  • Transferencia de archivos o FTP: Internet contiene gigabytes de software y millones de archivos a los que se accede fácilmente mediante un proceso llamado FTP o protocolo de transferencia de archivos, que te permite conectar a un ordenador de acceso público y copiar archivos a tu disco duro.
  • Grupos de discusión o news: Puedes participar en más de 15.000 grupos de discusión distintos o incluirse en la lista de distribución sobre un tema específico y recibir información de forma automática.
  • Word Wide Web: las páginas de la WWW son el aspecto más vistoso e innovador de Internet. Haciendo clic en palabras, imágenes e iconos, se pasa de un sitio a otro de una forma rápida y sencilla.
 
ISOC (Internet Society)
La red de redes está formada por redes que tienen su propio gobierno y equipo directivo. Sin embargo, no es posible una existencia totalmente anárquica, se necesita una mínima organización para subsistir, al menos, algo que aporte una cierta coherencia en el plano técnico, estableciéndose para ello una serie de normas comunes a todos los usuarios. Sin la coherencia en plano técnico sería inviable la interconexión de equipos de marcas y sistemas operativos tan variados como los que actualmente conviven en la red.
Con este fin, se fundó en 1992 una sociedad de voluntarios denominada Sociedad Internet o ISOC (Internet Society), que regula su labor mediante la elaboración de recomendaciones.
En Internet no existe una empresa o institución que se encargue de forma global de la operación y explotación de la red, ese es un tema del que se ocupa el administrador de cada subred. 


No hay comentarios:

Publicar un comentario