2.1. La construcción social de los sistemas técnicos
Las tecnologías de la información y la comunicación (TIC o bien NTIC para nuevas tecnologías de la información y de la comunicación) agrupan los elementos y las técnicas usados en el tratamiento y la transmisión de la información, principalmente lainformática, Internet y las telecomunicaciones.
Por extensión, designan un sector de actividad económica.
"Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de todos los habitantes del planeta. Se dispone de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua" (Kofi Annan, Secretario general de la Organización de las Naciones Unidas, discurso inaugural de la primera fase de la WSIS, Ginebra 2003)1
El uso de las tecnologías de la información y la comunicación ayudaría a disminuir la brecha digital aumentando el conglomerado de usuarios que las utilicen como medio tecnológico para el desarrollo de sus actividades.
2.2. Las generaciones tecnológicas y la configuración de campos tecnológicos
2.3. Las aportaciones de los conocimientos tradicionales de diferentes culturas en la configuración de los campos tecnológicos
2.4.
LA CONSTRUCCION SOCIAL DE LOS CAMPOS TECNOLÓGICOS
La construcción social de los sistemas técnicos.
La tecnología, resultado de conocimientos y aplicaciones prácticas, soluciona necesidades;
la tecnología se vale por sistemas técnicos cuya función es transformar algún tipo de materia prima para obtener determinados productos.
La organización de las tareas de los sistemas técnicos es tan importante como su,operación.
Actualmente, estos sistemas pueden ser aceptados o no, dependiendo de sus capacidades para resolver problemas dentro de los contextos sociales donde se producen.
la tecnología se vale por sistemas técnicos cuya función es transformar algún tipo de materia prima para obtener determinados productos.
La organización de las tareas de los sistemas técnicos es tan importante como su,operación.
Actualmente, estos sistemas pueden ser aceptados o no, dependiendo de sus capacidades para resolver problemas dentro de los contextos sociales donde se producen.
2.1. GENERACIONES TECNOLÓGICAS Y CONFIGURACIONES DE CAMPOS TECNOLÓGICOS.
Las innovaciones tecnológicas han configurado a las culturas en el siglo XX tanto en el conjunto de formas de vida como en los modos de organización social, económica y política.
El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación de un conjunto de técnicas diversas con propósitos comunes. Los campos tecnológicos están constituidos por artefactos en los que se incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas, organizaciones sociales y están ubicados, en la base de los procesos productivos.
El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación de un conjunto de técnicas diversas con propósitos comunes. Los campos tecnológicos están constituidos por artefactos en los que se incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas, organizaciones sociales y están ubicados, en la base de los procesos productivos.
CAMPOS TECNOLÓGICOS Y SU IMPORTANCIA
CAMPOS TECNOLÓGICOS Y SU IMPORTANCIA
CAMPOS TECNOLÓGICOS Y SU IMPORTANCIA
El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación d en conjunto de técnicas.
Los campos tecnológicos están constituidos por artefactos en los que incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas y organizaciones sociales.Los campos tecnológicos se generan en todas las actividades que realizan los seres humanos, desde las culturales y sociales como la educación y la salud.
Que
es Un sistema técnico?
Se
estructura, por la relación y mutua interdependencia, entre los seres
humanos, las herramientas o maquinas,
los materiales ,y el entorno para la obtención de un producto o situación
deseada y se caracteriza por la operación organizada de saberes y conocimientos
expresados en un conjunto de acciones tanto para la toma de decisiones como
para su ejecución y regulación .
Todo sistema técnico es
organizado por que sus elementos interactúan en el tiempo y el espacio de
manera intencional es dinámico por que cambia constantemente conforme los aberes sociales avanzan y es sinérgico
porque de la interacción de sus elementos se logran mejores resultados.
¿Diferentes empresas que fabrican computadoras y
programas?
3COM http:
//www.3com.com
Acer
http://www.acer.com
Adaptec
http://www.adaptec.com
Advanced
Micro Devices http://www.amd.com
America
Power Conversion http://www.apc.com
Apple
Computer http://www.apple.com
Artisoft
http://www.artisoft.com
AT&T
http://www.att.com
Attachmate
http://www.attachmate.com
Boca
Research http://www.boca.org
Borland
http://www.borland.com
Cabletron
Systems http://www.ctron.com
Caere
Corporation http://www.caere.com
Canon
http://www.canon.com
Cheyenne
Software http://www.chey.com
Cisco
Systems http://www.cisco.com
Compaq
Computer Corp http://www.compaq.com
Computer
Associates http://www.cai.com
Conner
Peripherals http://www.conner.com
Corel
Corporation http://www.corel.ca
Cyrix
Corporation http://www.cyrix.com
Delrina
Corporation http://www.delrina.com
Diamond
Multimedia Systems http://www.diamondmm.com
Digital
Equipment Corporation http://www.digital.com
Epson
http://www.epson.com
Fujitsu
Computer Products http://www.fujitsu.com
Hewlett
– Packard http://www.hp.com
IBM
http://www.ibm.com
Intel
http://www.intel.com
Kodak
http://www.kodak.com
Lexmark
http://www.lexmark.com
Lotus
Development http://www.lotus.com
Macromedia
http://www.macromedia.com
Maxtor
Corporation http://www.maxtor.com
McAfee
Associates http://www.mcafee.com
Micrografx
http://www.micrografx.com
Micropolis
http://www.microp.com
Microcosft
http://www.microsoft.com
Motorola
http://www.motorola.com
Multi-Tech
Systems http://www.multitech.com
NEC
Technologies http://www.nec.com
Novell
http://www.novell.com
Okidata
http://www.okidata.com
Packard
Bell http://www.packardbell.com
QMS,
Inc. http://www.qms.com
Quarterdeck
http://www.qdeck.com
Samsung
http://www.samsung.com
Seagate
Technologies http://www.seagate.com
Silicon
Graphics http://www.sgi.com
Sony
http://www.sony.com
Standard
Micro Systems http://www.smc.com
Strategic
Resource Corp http://www.icanect.net/strategy
Sun
Micro Systems http://www.sun.com
Sybase
http://www.zds.com
Tektronics
http://www.tek.com
Texas
Instruments http://www.ti.com
Toshiba
http://www.toshiba.com
U.S.
Robotics http://www.usr.com
Viewsonic
Corporation http://www.viewsonic.com
Western
Digital http://www.wdc.com
Xerox
http://www.xerox.com
Xircom
http://www.xircom.com
Zenith
Data Systems http://www.zds.com
http://www.monografias.com/trabajos81/glosario-informatico-listado-empresas-informaticas/glosario-informatico-listado-empresas- informáticas 2.shtml
Evolución
Sistemas Operativos;
A lo largo de la historia, han aparecido diferentes
SSOO que, en cada momento, se encargaban de recoger las características
punteras de lo que se descubría en el mundo de la informática. Hoy en día, sin
ir más lejos, se están desarrollando potentes SSOO basados en la Programación
Basada en Objetos (POO), que, dicho sea de paso ha sido la última evolución de
la informática, hace ya casi 10 años.
Lo primero es hacer constar que, lo que nos venden
hoy en día como "moderno",
es casi seguro que ya se utilizaba desde hace muchísimo tiempo en otros SSOO.
El concepto de Sistema Operativo, no es ni mucho menos nuevo. Los primeros SSOO
aparecieron a finales de los años 50; al comienzo de la informática. Al
principio, los primeros SSOO eran monousuario y monotarea, algo así como el
DOS. Pero con la direferencia de que se gobernaba con tarjetas perforadoras en
vez de Diskettes.
Pronto empezaron a surgir nuevos conceptos y tras
la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que
estaban mezcladas todas las filosofías que hasta entonces se había descubierto
en este mundo de la informática. Este SO se denominó Multics, son mediados de
los años 60. Poco tiempo despues, se dieron cuenta los diseñadores de este SO
que era enfarragoso y muy difícil de administrar, así pues se cogió la esencia
misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y
a finales de los 60 sacan la primera versión de un SO que revolucionaría la
informática; el Unix.
El Unix es hoy en dia, casi 30 años despues de su
primera versión, para mucha gente que se dedica al mundo de los ordenadores, el
único SO de redes real. De hecho es el que se maneja en las administraciones y
redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO
que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso
multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las
redes.
Este panorama se siguió durante unos cuantos años,
entre los cuales, en el mundo de los SSOO se iban sacando a la luz nuevas
conceptos y todos ellos emanaban del Unix. Uno de esos conceptos era la Memoria
Virtual, tan ampliamente utilizada en los SSOO modernos.
Dando un gran salto en el tiempo nos vamos a
finales de los años 70. Por aquel entonces una casa de ordenadores sacó el
primer ordenador personal, o al menos, como se le conoce hoy en día, esa casa
fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar
ordenadores personales, entre ellas emergió IBM. Cada una de esas casas diseñó
una serie de SSOO para sus máquinas; Apple el Mac
OS, IBM el CP/M,
que pronto fue sustituido por un SO que diseñó un jovencísimo Bill Gates y sus
colegas, el DOS.
Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger
el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo
usuario. Por contra, elMac OS diseñaba
un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la
tendencia de los SSOO que se diseñaron hasta entonces.
Mientras IBM optó por compartir sus licencias a
todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que
conocemos hoy en día. Una arquitectura basada en la conectividad de fabricantes;
PC y compatibles, y una arquitectura totalmente particular como son los Apple.
Siguieron pasando los años y a mediados de los 80
surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a
sustituir el DOS,
ese Sistema fue el OS/2.
Este sistema aprovechaba las nuevas características de los PCs de entonces e
introdujo un concepto nuevo al DOS, la multitarea. Poco tiempo despues se
produjo una ruptura sonada, el duo Microsoft-IBM se rompía. Por un lado IBM
seguiría con el OS/2,
por otro lado Microsoft desarrolló un programa basado en el caracter intuitivo
del interfaz gráfico del Macintosh, Windows.
Este programa, que en principio fue catalogado como el juguete de los niños ricos,
ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa
más vendido para PCs.
En principio no fue nada más que una aplicación que
necesitaba del DOS,
pero el tiempo y los usuarios demandaron que se convirtiera a un SO completo.
Tras varios años en los que MS veía como subía su prestigio en el mercado de
los PCs hasta cotas casi impensables 10 años antes (el 80% de los SSOO que se
utilizan en el mundo son de MS y el 65% de las Suites de oficina también, sin
contar con otras aplicaciones como compiladores, Servidores SQL, etc), se sacó
elWindows 95. El SO más utilizado hoy en día en todo el mundo,
que no el mejor.
Entre sus características destacan la multitarea,
un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la
luz de Windows 95,
MS acaba con la vida del DOS como tal (aunque muchos usuarios
piensan que Windows 95 no es sino el DOS renovado por el tiempo, entre ellos el
escribiente) y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15
años. Hoy en día, que las aplicaciones son viejas al año, constituye todo un
record que va a ser muy difícil de superar.
Volviendo hacia atrás la mirada, no mucho, desde el
año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de
un SO que aprovechara la interfaz de Windows,
pero orientado al mundo empresarial. Ese embrión fue denominado NT, y luego rebautizado a Windows NT. Ese SO
aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta
entonces seguía dominada por el Unix,
que cumplía su añete 22 de existencia, todo un mozalbete. Tras un par de años
de esfuerzos sale a la luz Windows
NT y sus características
son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus
contras son excesivos recursos para poder ser utilizado en una red medianamente
grande.
Entre medias de todo este circo de MS, IBM sigue
mejorando el OS/2 hasta unas cotas muy altas. Y es en
1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía
como SO el DOS), cuando IBM saca el OS/2
3.0, apodado Warp.
Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme
amén de una compatibilidad hasta entonces no posible. Era capaz de ejecutar
aplicaciones DOS,
más rápidas y con más estabilidad que el DOS.
Y lo mismo con Windows.
Las aplicaciones Windows se ejecutaban mejor y de forma más
estable sobreOS/2 que
sobre el propio Windows,
además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.
Pese a todo este esfuerzo, la gente sigue esperando
el nuevo SO de MS para el mundo doméstico. Ya llevaba más de un año de retraso,
ya que la última versión de Windows para el PC se sacó a finales de 1991. Y se
hace con MS lo que nunca se había hecho con ninguna casa de Software; darle una
prórroga de más de un año. Cualquier casa que hubiera tardado todo ese tiempo
en sacar algo al mercado que previamente hubiera estado anunciándolo, hubiera
sido retirada del mercado por obligación de la demanda de los usuarios. Yo creo
que es cuando Bill Gates se da cuenta de una cosa, no importa si el SO es mejor
o peor, no importa el retraso, lo único que importe es que sea MS y sea una
versión mejor que la anterior.
El año que va desde mediados de 1994 hasta finales
de 1995 (que es cuando MS saca el Windows 95) el OS/2, pese a lo que se
pudiera suponer, no experimenta un gran crecimiento. Sin embargo, MS iba a
provechar ese tiempo muy bien. No fue un retraso debido a mejoras del SO (como
fue justificado el retraso), ya que cuando Windows
95 salió seguía
adoleciendo de la inestabilidad de su antecesor y era más lento que OS/2. Ese tiempo, lo
dedicó al esfuerzo más grande que ha existido por desmarcarse del resto de la
competencia. Ese año se dedicó a crear las APIs (herramientas que utilizan los
desarrolladores de software para un SO) más difíciles del mercado, y MS daría
esa documentación a los desarrolladores siempre y cuando no desarrollasen
software en otro SO.
Si sumamos lo comentado en los dos últimos párrafos
tenemos la jugada ganadora de MS. El porqué de su éxito. A mi entender cuando a
la salida de Windows 95,
la gente lo compró de forma masiva, se dió una puñalada de muerte a la que fue edad de oro de la informática.
Pero ese es otro tema, ahora estamos haciendo un poco de historia sobre el mundo
de los SSOO.
A finales de 1991 surge el fenómeno más
revolucionario que ha existido en la informática. Una persona llamada Linus
Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico
del Unix. Hasta
entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello
pide ayuda por Internet. Pese a que no hace falta voy a poner el mensaje que
anunció a otros programadores, aunque sólo sea por hacer un pequeño homenaje a
esta persona.
"¿Echas de menos los días de Minix 1.1, cuando
los hombres eran hombres, y escribían sus propios
drivers?
¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu
antojo?
¿Te frusta disponer sólo de Minix?
¿Pasas las noches en vela para depurar tus cuidados programas?
Este anuncio puede ser lo que buscas.
Como mencioné hace meses, estoy trabajando en una versión similar a Minix para
máquinas AT-386.
Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y
estoy pensando en publicar las fuentes para su difusión, Sólo es la versión
0.2... Pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros...”
Mucha gente empezó a trabajar en el sistema. A
partir de la versión 0.99, en Navidades de 1993, comenzó la distribución
masiva. Lo que llamaba la atención de este proyecto es que era gratis. Y
totalmente anónimo. No había una casa detrás de él que se hiciera responsable
del proyecto. En estos días que la marca lo es todo, no sólo resultó romántico
sino que mucha gente se interesó por el tema más de lo debido. Hoy por hoy, Linux (así se llamó el proyecto, en honor a
su inventor) es el clónico Unix más vendido del mundo y no sólo eso,
sino que debido a que toda la información sale por Internet, salen versiones
cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son
más rápidas las versiones Unix de Linux que las de los propios
fabricantes tales como Sun, IBM o SCO. Si a eso le sumamos que el año 1996 la
NASA eligió como mejor SO de redes al Linux
RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.
El período que va desde 1993 hasta 1996 se
caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso jugar la
baza de introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una
nueva versión del OS/2,
destinado a sustituir al DOS,
MS también sacó Windows
3.xx y Windows 95 que finalmente fueron los estándares
del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos,
incluso ya en centros universitarios. No olvido las versiones del Mac OS para el Apple, es decir, que se tenía
una gran oferta de SSOO y todos ellos buenos.
MS, con Windows
NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco
más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero
con el mismo problema de sus antecesoras, el excesivo número de recursos
necesarios para administrar una red medianamente grande.
Y estamos en 1996, el año que va hasta la fecha de
hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel
particular (Windows 95) o a nivel de redes (Windows NT), si bien en este último
le queda por luchar dos grandes batallas que se me antojan imposibles, ambas se
llaman de parecida forma, Linux/Unix.
El SO de los grandes ordenadores, grandes redes o simplemente, de las
administraciones, y últimamente, de pequeños usuarios generalmente
universitarios. Pese a ser viejo, el Unix,
es sin duda ninguna, el SO para las redes.
Resumiendo, tras este período de cerca de 30 años
de historia, hay una serie de SSOO, que gozan, justa o injustamente de salud
para suministrar al usuario herramientas suficientes para crear un ordenador
desde casa con capacidad plena de conexión a Internet.
•Origen
y Evolución del Internet!
Los orígenes de
Internet se remontan a más de veinticinco años atrás, como un proyecto de
investigación en redes de conmutación de paquetes, dentro de un ámbito
militar. A finales de los años sesenta (1969), en plena guerra fría,
el Departamento de Defensa Americano (DoD) llegó a la conclusión de que su
sistema de comunicaciones era demasiado vulnerable. Estaba basado en la
comunicación telefónica (Red Telefónica Conmutada, RTC), y por tanto, en una
tecnología denominada de conmutación de circuitos, (un circuito es una conexión
entre llamante y llamado), que establece enlaces únicos y en número limitado
entre importantes nodos o centrales, con el consiguiente riesgo de
quedar aislado parte del país en caso de un ataque militar
sobre esas arterias de comunicación.
Como alternativa, el citado Departamento de Defensa, a
través de su Agencia de Proyectos de Investigación Avanzados (Advanced Research
Projects Agency, ARPA) decidió estimular las redes de ordenadores mediante
becas y ayudas a departamentos de informática de numerosas universidades y
algunas empresas privadas. Esta investigación condujo a una red experimental de
cuatro nodos, que arrancó en Diciembre de 1969, se denominó ARPAnet.
La idea central de esta red era conseguir que la información llegara a
su destino aunque parte de la red estuviera destruida.
ARPA desarrolló una nueva tecnología
denominada conmutación de paquetes, cuya principal característica reside en
fragmentar la información, dividirla en porciones de una determinada longitud a
las que se llama paquetes. Cada paquete lleva asociada una cabecera con datos
referentes al destino, origen, códigos de comprobación, etc. Así, el paquete
contiene información suficiente como para que se le vaya encaminando hacia su
destino en los distintos nodos que atraviese. El camino a seguir, sin embargo,
no está preestablecido, de forma que si una parte de la red cae o es destruida,
el flujo de paquetes será automáticamente encaminado por nodos alternativos.
Los códigos de comprobación permiten conocer la pérdida o corrupción de
paquetes, estableciéndose un mecanismo que permite la recuperación. Este
sistema de transmisión reúne múltiples ventajas:
- Fiabilidad,
independiente de la calidad de líneas utilizadas y de las caídas de la
red.
- Distribución más fácil de los datos dado que al contener cada paquete la
información necesaria para llegar a su destino, tenemos que paquetes con
distinto objetivo pueden compartir un mismo canal o camino de
comunicaciones.
- Posibilidad de técnicas de compresión que aumentan la capacidad de transmisión y
de encriptado que permiten una codificación, de forma que se asegure la
confidencialidad de los datos.
Al igual que los equipos o las
conexiones también se evolucionó en los servicios que ofrecía ARPAnet, ya que
si bien al principio sólo permitía ejecutar programas en modo remoto, en 1972 se introdujo un sistema de correo electrónico, que liberó
a los usuarios de la dependencia de los husos horarios (algo de importancia evidente en Estados Unidos, por
su gran extensión), y supuso un sorprendente aumento en el tráfico generado,
convirtiéndose en la actividad que mayor volumen generaba, en contra de las
previsiones iniciales.
Para que los ordenadores puedan comunicarse entre sí
es necesario que todos ellos envíen y reciban la información de la misma
manera. La descripción de los pasos a seguir se denomina “protocolo”. En
1974, se presentó el protocolo “Transmission Control Protocol / Internet
Protocol” (TCP/IP). Este protocolo proporcionaba un sistema
independiente de intercambio de datos entre ordenadores y redes locales de
distinto origen, eso sí, conservando las ventajas relativas a la técnica de
conmutación de paquetes.
A principios de los ochenta el Departamento de Defensa
de Estados Unidos decidió usar el protocolo TCP/IP para la red ARPAnet,
desdoblándola en Arpanet y Milnet, siendo esta segunda de uso exclusivamente
militar, conectada a Arpanet bajo un tráfico extremadamente controlado.
Igualmente en Europa se creó la red Minet, como extensión de Milnet.
Dado que una gran cantidad de las organismos tenían
sus propias redes de area local (RAL) conectadas a los nodos de la red se fue
evolucionando hacia una red llamada ARPA Internet formada por miles de equipos.
El nombre sufrió algunos cambios más, como: Federal Research Internet, TCP/IP
Internet y finalmente, INTERNET.
Durante los últimos años ochenta Internet creció hasta
incluir el potencial informático de las universidades y centros de
investigación, lo que unido a la posterior incorporación de empresas privadas,
organismos públicos y asociaciones de todo el mundo supuso un fuerte impulso
para Internet que dejó de ser un proyecto con protección
estatal para convertirse en la mayor red de ordenadores del mundo, formada
por más de cincuenta mil redes, cuatro millones de sistemas y más de setenta
millones de usuarios.
Teniendo en cuenta que se estima un
crecimiento del censo de usuarios de Internet de aproximadamente un diez por
ciento mensual, se deduce que para el año dos mil se superarían los trescientos
millones de usuarios conectados a la ‘Red de redes’. Internet no es
simplemente una red de ordenadores, es decir, unos cuantos ordenadores
conectados entre sí. Se trata de una asociación de miles de redes conectadas
entre sí. Todo ello da lugar a la “RED DE REDES”, en la que un
ordenador de una red puede intercambiar información con otro situado en
una red remota.
En gran parte, este espectacular crecimiento se debe a
la notable mejora en la facilidad de uso de los servicios ofrecidos, dado que,
aún manteniéndose los servicios originales de transferencia de ficheros, correo
electrónico o acceso remoto, la irrupción de la ‘TELARAÑA MUNDIAL’,
World Wide Web (www), un servicio de consulta de documentos hipertextuales,
ha sido el paso definitivo hacia la popularidad de la que actualmente
goza.
Elementos imprescindibles para acceder a Internet
Para utilizar Internet no es preciso entender
exactamente cómo funciona, aunque un poco de información al respecto nunca está
de más. Son necesarios los siguientes elementos:
- El PC y el módem: a Internet se accede desde un PC
conectado al proveedor mediante un módem que por su puesto deberá estar
conectado a una línea telefónica.
- Proveedor: abre las
puertas de Internet. El proveedor te proporciona acceso a la Red, un
número de teléfono para acceder a ella y una dirección de correo electrónico.
Servicios básicos en Internet
Los principales servicios que ofrece Internet son:
- Correo electrónico: gracias a él se mandan mensajes a cualquier
persona que disponga de una cuenta en Internet. Los mensajes abarcan tanto
texto como ficheros informáticos de cualquier característica, que se
almacenan en el servidor de correo hasta que el destinatario se conecta y
los recoge. El correo electrónico es una forma rápida de y barata de
comunicarse con todo el mundo.
- Transferencia de archivos o FTP: Internet contiene gigabytes de software y
millones de archivos a los que se accede fácilmente mediante un proceso
llamado FTP o protocolo de transferencia de archivos, que te permite
conectar a un ordenador de acceso público y copiar archivos a tu disco
duro.
- Grupos de discusión o news: Puedes participar en más de 15.000 grupos
de discusión distintos o incluirse en la lista de distribución sobre un
tema específico y recibir información de forma automática.
- Word Wide Web: las páginas de la WWW son el aspecto más vistoso e innovador de
Internet. Haciendo clic en palabras, imágenes e iconos, se pasa de un
sitio a otro de una forma rápida y sencilla.
ISOC (Internet Society)
La red de redes está formada por redes que
tienen su propio gobierno y equipo directivo. Sin embargo, no es posible
una existencia totalmente anárquica, se necesita una mínima organización para
subsistir, al menos, algo que aporte una cierta coherencia en el plano técnico,
estableciéndose para ello una serie de normas comunes a todos los usuarios. Sin
la coherencia en plano técnico sería inviable la interconexión de equipos de
marcas y sistemas operativos tan variados como los que actualmente conviven en
la red.
Con este fin, se fundó en 1992 una sociedad de
voluntarios denominada Sociedad Internet o ISOC (Internet Society),
que regula su labor mediante la elaboración de recomendaciones.
En Internet no existe una empresa o institución que se
encargue de forma global de la operación y explotación de la red, ese es un
tema del que se ocupa el administrador de cada subred.
El campo tecnológico es un sistema de mayor complejidad que permite la organización y articulación d en conjunto de técnicas.
Los campos tecnológicos están constituidos por artefactos en los que incorporan distintas generaciones tecnológicas, acciones, conocimientos, saberes, personas y organizaciones sociales.Los campos tecnológicos se generan en todas las actividades que realizan los seres humanos, desde las culturales y sociales como la educación y la salud.
Que
es Un sistema técnico?
Se
estructura, por la relación y mutua interdependencia, entre los seres
humanos, las herramientas o maquinas,
los materiales ,y el entorno para la obtención de un producto o situación
deseada y se caracteriza por la operación organizada de saberes y conocimientos
expresados en un conjunto de acciones tanto para la toma de decisiones como
para su ejecución y regulación .
Todo sistema técnico es
organizado por que sus elementos interactúan en el tiempo y el espacio de
manera intencional es dinámico por que cambia constantemente conforme los aberes sociales avanzan y es sinérgico
porque de la interacción de sus elementos se logran mejores resultados.
¿Diferentes empresas que fabrican computadoras y
programas?
3COM http:
//www.3com.com
Acer
http://www.acer.com
Adaptec
http://www.adaptec.com
Advanced
Micro Devices http://www.amd.com
America
Power Conversion http://www.apc.com
Apple
Computer http://www.apple.com
Artisoft
http://www.artisoft.com
AT&T
http://www.att.com
Attachmate
http://www.attachmate.com
Boca
Research http://www.boca.org
Borland
http://www.borland.com
Cabletron
Systems http://www.ctron.com
Caere
Corporation http://www.caere.com
Canon
http://www.canon.com
Cheyenne
Software http://www.chey.com
Cisco
Systems http://www.cisco.com
Compaq
Computer Corp http://www.compaq.com
Computer
Associates http://www.cai.com
Conner
Peripherals http://www.conner.com
Corel
Corporation http://www.corel.ca
Cyrix
Corporation http://www.cyrix.com
Delrina
Corporation http://www.delrina.com
Diamond
Multimedia Systems http://www.diamondmm.com
Digital
Equipment Corporation http://www.digital.com
Epson
http://www.epson.com
Fujitsu
Computer Products http://www.fujitsu.com
Hewlett
– Packard http://www.hp.com
IBM
http://www.ibm.com
Intel
http://www.intel.com
Kodak
http://www.kodak.com
Lexmark
http://www.lexmark.com
Lotus
Development http://www.lotus.com
Macromedia
http://www.macromedia.com
Maxtor
Corporation http://www.maxtor.com
McAfee
Associates http://www.mcafee.com
Micrografx
http://www.micrografx.com
Micropolis
http://www.microp.com
Microcosft
http://www.microsoft.com
Motorola
http://www.motorola.com
Multi-Tech
Systems http://www.multitech.com
NEC
Technologies http://www.nec.com
Novell
http://www.novell.com
Okidata
http://www.okidata.com
Packard
Bell http://www.packardbell.com
QMS,
Inc. http://www.qms.com
Quarterdeck
http://www.qdeck.com
Samsung
http://www.samsung.com
Seagate
Technologies http://www.seagate.com
Silicon
Graphics http://www.sgi.com
Sony
http://www.sony.com
Standard
Micro Systems http://www.smc.com
Strategic
Resource Corp http://www.icanect.net/strategy
Sun
Micro Systems http://www.sun.com
Sybase
http://www.zds.com
Tektronics
http://www.tek.com
Texas
Instruments http://www.ti.com
Toshiba
http://www.toshiba.com
U.S.
Robotics http://www.usr.com
Viewsonic
Corporation http://www.viewsonic.com
Western
Digital http://www.wdc.com
Xerox
http://www.xerox.com
Xircom
http://www.xircom.com
Zenith
Data Systems http://www.zds.com
http://www.monografias.com/trabajos81/glosario-informatico-listado-empresas-informaticas/glosario-informatico-listado-empresas- informáticas 2.shtml
Evolución
Sistemas Operativos;
A lo largo de la historia, han aparecido diferentes
SSOO que, en cada momento, se encargaban de recoger las características
punteras de lo que se descubría en el mundo de la informática. Hoy en día, sin
ir más lejos, se están desarrollando potentes SSOO basados en la Programación
Basada en Objetos (POO), que, dicho sea de paso ha sido la última evolución de
la informática, hace ya casi 10 años.
Lo primero es hacer constar que, lo que nos venden
hoy en día como "moderno",
es casi seguro que ya se utilizaba desde hace muchísimo tiempo en otros SSOO.
El concepto de Sistema Operativo, no es ni mucho menos nuevo. Los primeros SSOO
aparecieron a finales de los años 50; al comienzo de la informática. Al
principio, los primeros SSOO eran monousuario y monotarea, algo así como el
DOS. Pero con la direferencia de que se gobernaba con tarjetas perforadoras en
vez de Diskettes.
Pronto empezaron a surgir nuevos conceptos y tras
la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que
estaban mezcladas todas las filosofías que hasta entonces se había descubierto
en este mundo de la informática. Este SO se denominó Multics, son mediados de
los años 60. Poco tiempo despues, se dieron cuenta los diseñadores de este SO
que era enfarragoso y muy difícil de administrar, así pues se cogió la esencia
misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y
a finales de los 60 sacan la primera versión de un SO que revolucionaría la
informática; el Unix.
El Unix es hoy en dia, casi 30 años despues de su
primera versión, para mucha gente que se dedica al mundo de los ordenadores, el
único SO de redes real. De hecho es el que se maneja en las administraciones y
redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO
que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso
multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las
redes.
Este panorama se siguió durante unos cuantos años,
entre los cuales, en el mundo de los SSOO se iban sacando a la luz nuevas
conceptos y todos ellos emanaban del Unix. Uno de esos conceptos era la Memoria
Virtual, tan ampliamente utilizada en los SSOO modernos.
Dando un gran salto en el tiempo nos vamos a
finales de los años 70. Por aquel entonces una casa de ordenadores sacó el
primer ordenador personal, o al menos, como se le conoce hoy en día, esa casa
fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar
ordenadores personales, entre ellas emergió IBM. Cada una de esas casas diseñó
una serie de SSOO para sus máquinas; Apple el Mac
OS, IBM el CP/M,
que pronto fue sustituido por un SO que diseñó un jovencísimo Bill Gates y sus
colegas, el DOS.
Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger
el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo
usuario. Por contra, elMac OS diseñaba
un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la
tendencia de los SSOO que se diseñaron hasta entonces.
Mientras IBM optó por compartir sus licencias a
todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que
conocemos hoy en día. Una arquitectura basada en la conectividad de fabricantes;
PC y compatibles, y una arquitectura totalmente particular como son los Apple.
Siguieron pasando los años y a mediados de los 80
surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a
sustituir el DOS,
ese Sistema fue el OS/2.
Este sistema aprovechaba las nuevas características de los PCs de entonces e
introdujo un concepto nuevo al DOS, la multitarea. Poco tiempo despues se
produjo una ruptura sonada, el duo Microsoft-IBM se rompía. Por un lado IBM
seguiría con el OS/2,
por otro lado Microsoft desarrolló un programa basado en el caracter intuitivo
del interfaz gráfico del Macintosh, Windows.
Este programa, que en principio fue catalogado como el juguete de los niños ricos,
ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa
más vendido para PCs.
En principio no fue nada más que una aplicación que
necesitaba del DOS,
pero el tiempo y los usuarios demandaron que se convirtiera a un SO completo.
Tras varios años en los que MS veía como subía su prestigio en el mercado de
los PCs hasta cotas casi impensables 10 años antes (el 80% de los SSOO que se
utilizan en el mundo son de MS y el 65% de las Suites de oficina también, sin
contar con otras aplicaciones como compiladores, Servidores SQL, etc), se sacó
elWindows 95. El SO más utilizado hoy en día en todo el mundo,
que no el mejor.
Entre sus características destacan la multitarea,
un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la
luz de Windows 95,
MS acaba con la vida del DOS como tal (aunque muchos usuarios
piensan que Windows 95 no es sino el DOS renovado por el tiempo, entre ellos el
escribiente) y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15
años. Hoy en día, que las aplicaciones son viejas al año, constituye todo un
record que va a ser muy difícil de superar.
Volviendo hacia atrás la mirada, no mucho, desde el
año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de
un SO que aprovechara la interfaz de Windows,
pero orientado al mundo empresarial. Ese embrión fue denominado NT, y luego rebautizado a Windows NT. Ese SO
aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta
entonces seguía dominada por el Unix,
que cumplía su añete 22 de existencia, todo un mozalbete. Tras un par de años
de esfuerzos sale a la luz Windows
NT y sus características
son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus
contras son excesivos recursos para poder ser utilizado en una red medianamente
grande.
Entre medias de todo este circo de MS, IBM sigue
mejorando el OS/2 hasta unas cotas muy altas. Y es en
1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía
como SO el DOS), cuando IBM saca el OS/2
3.0, apodado Warp.
Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme
amén de una compatibilidad hasta entonces no posible. Era capaz de ejecutar
aplicaciones DOS,
más rápidas y con más estabilidad que el DOS.
Y lo mismo con Windows.
Las aplicaciones Windows se ejecutaban mejor y de forma más
estable sobreOS/2 que
sobre el propio Windows,
además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.
Pese a todo este esfuerzo, la gente sigue esperando
el nuevo SO de MS para el mundo doméstico. Ya llevaba más de un año de retraso,
ya que la última versión de Windows para el PC se sacó a finales de 1991. Y se
hace con MS lo que nunca se había hecho con ninguna casa de Software; darle una
prórroga de más de un año. Cualquier casa que hubiera tardado todo ese tiempo
en sacar algo al mercado que previamente hubiera estado anunciándolo, hubiera
sido retirada del mercado por obligación de la demanda de los usuarios. Yo creo
que es cuando Bill Gates se da cuenta de una cosa, no importa si el SO es mejor
o peor, no importa el retraso, lo único que importe es que sea MS y sea una
versión mejor que la anterior.
El año que va desde mediados de 1994 hasta finales
de 1995 (que es cuando MS saca el Windows 95) el OS/2, pese a lo que se
pudiera suponer, no experimenta un gran crecimiento. Sin embargo, MS iba a
provechar ese tiempo muy bien. No fue un retraso debido a mejoras del SO (como
fue justificado el retraso), ya que cuando Windows
95 salió seguía
adoleciendo de la inestabilidad de su antecesor y era más lento que OS/2. Ese tiempo, lo
dedicó al esfuerzo más grande que ha existido por desmarcarse del resto de la
competencia. Ese año se dedicó a crear las APIs (herramientas que utilizan los
desarrolladores de software para un SO) más difíciles del mercado, y MS daría
esa documentación a los desarrolladores siempre y cuando no desarrollasen
software en otro SO.
Si sumamos lo comentado en los dos últimos párrafos
tenemos la jugada ganadora de MS. El porqué de su éxito. A mi entender cuando a
la salida de Windows 95,
la gente lo compró de forma masiva, se dió una puñalada de muerte a la que fue edad de oro de la informática.
Pero ese es otro tema, ahora estamos haciendo un poco de historia sobre el mundo
de los SSOO.
A finales de 1991 surge el fenómeno más
revolucionario que ha existido en la informática. Una persona llamada Linus
Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico
del Unix. Hasta
entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello
pide ayuda por Internet. Pese a que no hace falta voy a poner el mensaje que
anunció a otros programadores, aunque sólo sea por hacer un pequeño homenaje a
esta persona.
"¿Echas de menos los días de Minix 1.1, cuando
los hombres eran hombres, y escribían sus propios
drivers?
¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu antojo?
¿Te frusta disponer sólo de Minix?
¿Pasas las noches en vela para depurar tus cuidados programas?
Este anuncio puede ser lo que buscas.
Como mencioné hace meses, estoy trabajando en una versión similar a Minix para máquinas AT-386.
Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y estoy pensando en publicar las fuentes para su difusión, Sólo es la versión 0.2... Pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros...”
drivers?
¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu antojo?
¿Te frusta disponer sólo de Minix?
¿Pasas las noches en vela para depurar tus cuidados programas?
Este anuncio puede ser lo que buscas.
Como mencioné hace meses, estoy trabajando en una versión similar a Minix para máquinas AT-386.
Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y estoy pensando en publicar las fuentes para su difusión, Sólo es la versión 0.2... Pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros...”
Mucha gente empezó a trabajar en el sistema. A
partir de la versión 0.99, en Navidades de 1993, comenzó la distribución
masiva. Lo que llamaba la atención de este proyecto es que era gratis. Y
totalmente anónimo. No había una casa detrás de él que se hiciera responsable
del proyecto. En estos días que la marca lo es todo, no sólo resultó romántico
sino que mucha gente se interesó por el tema más de lo debido. Hoy por hoy, Linux (así se llamó el proyecto, en honor a
su inventor) es el clónico Unix más vendido del mundo y no sólo eso,
sino que debido a que toda la información sale por Internet, salen versiones
cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son
más rápidas las versiones Unix de Linux que las de los propios
fabricantes tales como Sun, IBM o SCO. Si a eso le sumamos que el año 1996 la
NASA eligió como mejor SO de redes al Linux
RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.
El período que va desde 1993 hasta 1996 se
caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso jugar la
baza de introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una
nueva versión del OS/2,
destinado a sustituir al DOS,
MS también sacó Windows
3.xx y Windows 95 que finalmente fueron los estándares
del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos,
incluso ya en centros universitarios. No olvido las versiones del Mac OS para el Apple, es decir, que se tenía
una gran oferta de SSOO y todos ellos buenos.
MS, con Windows
NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco
más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero
con el mismo problema de sus antecesoras, el excesivo número de recursos
necesarios para administrar una red medianamente grande.
Y estamos en 1996, el año que va hasta la fecha de
hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel
particular (Windows 95) o a nivel de redes (Windows NT), si bien en este último
le queda por luchar dos grandes batallas que se me antojan imposibles, ambas se
llaman de parecida forma, Linux/Unix.
El SO de los grandes ordenadores, grandes redes o simplemente, de las
administraciones, y últimamente, de pequeños usuarios generalmente
universitarios. Pese a ser viejo, el Unix,
es sin duda ninguna, el SO para las redes.
Resumiendo, tras este período de cerca de 30 años
de historia, hay una serie de SSOO, que gozan, justa o injustamente de salud
para suministrar al usuario herramientas suficientes para crear un ordenador
desde casa con capacidad plena de conexión a Internet.
•Origen
y Evolución del Internet!
Los orígenes de
Internet se remontan a más de veinticinco años atrás, como un proyecto de
investigación en redes de conmutación de paquetes, dentro de un ámbito
militar. A finales de los años sesenta (1969), en plena guerra fría,
el Departamento de Defensa Americano (DoD) llegó a la conclusión de que su
sistema de comunicaciones era demasiado vulnerable. Estaba basado en la
comunicación telefónica (Red Telefónica Conmutada, RTC), y por tanto, en una
tecnología denominada de conmutación de circuitos, (un circuito es una conexión
entre llamante y llamado), que establece enlaces únicos y en número limitado
entre importantes nodos o centrales, con el consiguiente riesgo de
quedar aislado parte del país en caso de un ataque militar
sobre esas arterias de comunicación.
Como alternativa, el citado Departamento de Defensa, a
través de su Agencia de Proyectos de Investigación Avanzados (Advanced Research
Projects Agency, ARPA) decidió estimular las redes de ordenadores mediante
becas y ayudas a departamentos de informática de numerosas universidades y
algunas empresas privadas. Esta investigación condujo a una red experimental de
cuatro nodos, que arrancó en Diciembre de 1969, se denominó ARPAnet.
La idea central de esta red era conseguir que la información llegara a
su destino aunque parte de la red estuviera destruida.
ARPA desarrolló una nueva tecnología
denominada conmutación de paquetes, cuya principal característica reside en
fragmentar la información, dividirla en porciones de una determinada longitud a
las que se llama paquetes. Cada paquete lleva asociada una cabecera con datos
referentes al destino, origen, códigos de comprobación, etc. Así, el paquete
contiene información suficiente como para que se le vaya encaminando hacia su
destino en los distintos nodos que atraviese. El camino a seguir, sin embargo,
no está preestablecido, de forma que si una parte de la red cae o es destruida,
el flujo de paquetes será automáticamente encaminado por nodos alternativos.
Los códigos de comprobación permiten conocer la pérdida o corrupción de
paquetes, estableciéndose un mecanismo que permite la recuperación. Este
sistema de transmisión reúne múltiples ventajas:
- Fiabilidad,
independiente de la calidad de líneas utilizadas y de las caídas de la
red.
- Distribución más fácil de los datos dado que al contener cada paquete la
información necesaria para llegar a su destino, tenemos que paquetes con
distinto objetivo pueden compartir un mismo canal o camino de
comunicaciones.
- Posibilidad de técnicas de compresión que aumentan la capacidad de transmisión y
de encriptado que permiten una codificación, de forma que se asegure la
confidencialidad de los datos.
Al igual que los equipos o las
conexiones también se evolucionó en los servicios que ofrecía ARPAnet, ya que
si bien al principio sólo permitía ejecutar programas en modo remoto, en 1972 se introdujo un sistema de correo electrónico, que liberó
a los usuarios de la dependencia de los husos horarios (algo de importancia evidente en Estados Unidos, por
su gran extensión), y supuso un sorprendente aumento en el tráfico generado,
convirtiéndose en la actividad que mayor volumen generaba, en contra de las
previsiones iniciales.
Para que los ordenadores puedan comunicarse entre sí
es necesario que todos ellos envíen y reciban la información de la misma
manera. La descripción de los pasos a seguir se denomina “protocolo”. En
1974, se presentó el protocolo “Transmission Control Protocol / Internet
Protocol” (TCP/IP). Este protocolo proporcionaba un sistema
independiente de intercambio de datos entre ordenadores y redes locales de
distinto origen, eso sí, conservando las ventajas relativas a la técnica de
conmutación de paquetes.
A principios de los ochenta el Departamento de Defensa
de Estados Unidos decidió usar el protocolo TCP/IP para la red ARPAnet,
desdoblándola en Arpanet y Milnet, siendo esta segunda de uso exclusivamente
militar, conectada a Arpanet bajo un tráfico extremadamente controlado.
Igualmente en Europa se creó la red Minet, como extensión de Milnet.
Dado que una gran cantidad de las organismos tenían
sus propias redes de area local (RAL) conectadas a los nodos de la red se fue
evolucionando hacia una red llamada ARPA Internet formada por miles de equipos.
El nombre sufrió algunos cambios más, como: Federal Research Internet, TCP/IP
Internet y finalmente, INTERNET.
Durante los últimos años ochenta Internet creció hasta
incluir el potencial informático de las universidades y centros de
investigación, lo que unido a la posterior incorporación de empresas privadas,
organismos públicos y asociaciones de todo el mundo supuso un fuerte impulso
para Internet que dejó de ser un proyecto con protección
estatal para convertirse en la mayor red de ordenadores del mundo, formada
por más de cincuenta mil redes, cuatro millones de sistemas y más de setenta
millones de usuarios.
Teniendo en cuenta que se estima un
crecimiento del censo de usuarios de Internet de aproximadamente un diez por
ciento mensual, se deduce que para el año dos mil se superarían los trescientos
millones de usuarios conectados a la ‘Red de redes’. Internet no es
simplemente una red de ordenadores, es decir, unos cuantos ordenadores
conectados entre sí. Se trata de una asociación de miles de redes conectadas
entre sí. Todo ello da lugar a la “RED DE REDES”, en la que un
ordenador de una red puede intercambiar información con otro situado en
una red remota.
En gran parte, este espectacular crecimiento se debe a
la notable mejora en la facilidad de uso de los servicios ofrecidos, dado que,
aún manteniéndose los servicios originales de transferencia de ficheros, correo
electrónico o acceso remoto, la irrupción de la ‘TELARAÑA MUNDIAL’,
World Wide Web (www), un servicio de consulta de documentos hipertextuales,
ha sido el paso definitivo hacia la popularidad de la que actualmente
goza.
Elementos imprescindibles para acceder a Internet
Para utilizar Internet no es preciso entender
exactamente cómo funciona, aunque un poco de información al respecto nunca está
de más. Son necesarios los siguientes elementos:
- El PC y el módem: a Internet se accede desde un PC
conectado al proveedor mediante un módem que por su puesto deberá estar
conectado a una línea telefónica.
- Proveedor: abre las
puertas de Internet. El proveedor te proporciona acceso a la Red, un
número de teléfono para acceder a ella y una dirección de correo electrónico.
Servicios básicos en Internet
Los principales servicios que ofrece Internet son:
Los principales servicios que ofrece Internet son:
- Correo electrónico: gracias a él se mandan mensajes a cualquier
persona que disponga de una cuenta en Internet. Los mensajes abarcan tanto
texto como ficheros informáticos de cualquier característica, que se
almacenan en el servidor de correo hasta que el destinatario se conecta y
los recoge. El correo electrónico es una forma rápida de y barata de
comunicarse con todo el mundo.
- Transferencia de archivos o FTP: Internet contiene gigabytes de software y
millones de archivos a los que se accede fácilmente mediante un proceso
llamado FTP o protocolo de transferencia de archivos, que te permite
conectar a un ordenador de acceso público y copiar archivos a tu disco
duro.
- Grupos de discusión o news: Puedes participar en más de 15.000 grupos
de discusión distintos o incluirse en la lista de distribución sobre un
tema específico y recibir información de forma automática.
- Word Wide Web: las páginas de la WWW son el aspecto más vistoso e innovador de
Internet. Haciendo clic en palabras, imágenes e iconos, se pasa de un
sitio a otro de una forma rápida y sencilla.
ISOC (Internet Society)
La red de redes está formada por redes que
tienen su propio gobierno y equipo directivo. Sin embargo, no es posible
una existencia totalmente anárquica, se necesita una mínima organización para
subsistir, al menos, algo que aporte una cierta coherencia en el plano técnico,
estableciéndose para ello una serie de normas comunes a todos los usuarios. Sin
la coherencia en plano técnico sería inviable la interconexión de equipos de
marcas y sistemas operativos tan variados como los que actualmente conviven en
la red.
Con este fin, se fundó en 1992 una sociedad de
voluntarios denominada Sociedad Internet o ISOC (Internet Society),
que regula su labor mediante la elaboración de recomendaciones.
En Internet no existe una empresa o institución que se
encargue de forma global de la operación y explotación de la red, ese es un
tema del que se ocupa el administrador de cada subred.