Professional Documents
Culture Documents
Las primeras máquinas simples sustituían una forma de esfuerzo en otra forma que fueran
manejadas por el ser humano, tal como levantar un peso pesado con sistema de poleas o
con una palanca. Posteriormente las máquinas fueron capaces de sustituir formas naturales
de energía renovable, tales como el viento, mareas, o un flujo de agua por energía humana.
Los botes a vela sustituyeron a los botes de remos. Todavía después, algunas formas de
automatización fueron controlados por mecanismos de relojería o dispositivos similares
utilizando algunas formas de fuentes de poder artificiales -algún resorte, un flujo canalizado
de agua o vapor para producir acciones simples y repetitivas, tal como figuras en
movimiento, creación de música, o juegos. Dichos dispositivos caracterizaban a figuras
humanas, fueron conocidos como autómatas y datan posiblemente desde 300 AC.
En 1801, la patente de un telar automático utilizando tarjetas perforadas fue dada a Joseph
Marie Jacquard, quien revolucionó la industria del textil.
La parte más visible de la automatización actual puede ser la robótica industrial. Algunas
ventajas son repetitividad, control de calidad más estrecho, mayor eficiencia, integración
con sistemas empresariales, incremento de productividad y reducción de trabajo. Algunas
desventajas son requerimientos de un gran capital, decremento severo en la flexibilidad, y
un incremento en la dependencia del mantenimiento y reparación. Por ejemplo, Japón ha
tenido necesidad de retirar muchos de sus robots industriales cuando encontraron que eran
incapaces de adaptarse a los cambios dramáticos de los requerimientos de producción y no
eran capaces de justificar sus altos costos iniciales.
Para mediados del siglo 20, la automatización había existido por muchos años en una escala
pequeña, utilizando mecanismos simples para automatizar tareas sencillas de manufactura.
Sin embargo el concepto solamente llego a ser realmente práctico con la adición (y
evolución) de las computadoras digitales, cuya flexibilidad permitió manejar cualquier
clase de tarea. Las computadoras digitales con la combinación requerida de velocidad,
poder de computo, precio y tamaño empezaron a aparecer en la década de 1960s. Antes de
ese tiempo, las computadoras industriales era exclusivamente computadoras analógicas y
computadoras híbridas. Desde entonces las computadoras digitales tomaron el control de la
mayoría de las tareas simples, repetitivas, tareas semiespecializadas y especializadas, con
algunas excepciones notables en la producción e inspección de alimentos. Como un famoso
dicho anonimo dice, "para muchas y muy cambiantes tareas, es difícil remplazar al ser
humano, quienes son fácilmente vueltos a entrenar dentro de un amplio rango de tareas,
más aún, son producidos a bajo costo por personal sin entrenamiento."
Existen muchos trabajos donde no existe riesgo inmediato de la automatización. Ningún
dispositivo ha sido inventado que pueda competir contra el ojo humano para la precisión y
certeza en muchas tareas; tampoco el oído humano. El más inútil de los seres humanos
puede identificar y distinguir mayor cantidad de esencias que cualquier dispositivo
automático. Las habilidades para el patrón de reconocimiento humano, reconocimiento de
lenguaje y producción de lenguaje se encuentran más allá de cualquier expectativa de los
ingenieros de automatización.
Computadoras especializadas, son utilizadas para leer entradas de campo a través de
sensores y en base a su programa, generar salidas hacia el campo a través de actuadores.
Esto conduce para controlar acciones precisas que permitan un control estrecho de
cualquier proceso industrial. (Se temía que estos dispositivos fueran vulnerables al error del
año 2000, con consecuencias catastróficas, ya que son tan comunes dentro del mundo de la
industria).
Existen dos tipos distintos: DCS o Sistema de Control Distribuído, y PLC o Controlador
Lógico Programable. El primero era antiguamente orientado a procesos de tipo análogos,
mientras que el segundo se utilizaba en procesos de tipo discreto (ceros y unos).
Actualmente ambos equipos se parecen cada vez más, y cualquiera de los dos puede ser
utilizado en todo tipo de procesos.
Las interfaces Hombre-Máquina (HMI) o interfaces Hombre-Computadora (CHI),
formalmente conocidas como interfaces Hombre-Máquina, son comúnmente empleadas
para comunicarse con los PLCs y otras computadoras, para labores tales como introducir y
monitorear temperaturas o presiones para controles automáticos o respuesta a mensajes de
alarma. El personal de servicio que monitorea y controla estas interfaces son conocidos
como ingenieros de estación.
Otra forma de automatización que involucra computadoras es la prueba de automatización,
donde las computadoras controlan un equipo de prueba automático que es programado para
simular seres humanos que prueban manualmente una aplicación. Esto es acompañado por
lo general de herramientas automáticas para generar instrucciones especiales (escritas como
programas de computadora) que direccionan al equipo automático en prueba en la dirección
exacta para terminar las pruebas.
Mecatrónica
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Ramas de la Ingeniería que constituyen a la mecatrónica.
Contenido
[ocultar]
• 1 Descripción
• 2 Antecedentes
• 3 Sistema Mecatrónico
• 4 Líneas de investigación
• 5 Componentes
○ 5.1 Mecanismos
○ 5.2 Actuadores
○ 5.3 Controles
○ 5.4 Sensores
• 6 Análisis y modelado
• 7 Aplicaciones
• 8 Véase también
Descripción [editar]
El término "Mecatrónica" un principio se definió como la integración de la mecánica y la
electrónica en una máquina o producto, pero luego se consolidó como una especialidad de
la ingeniería e incorporó otros elementos como los sistemas de computación, los desarrollos
de la microelectrónica, la inteligencia artificial, la teoría de control y otros relacionados con
la informática, estabilidad y alcanzabilidad. Teniendo como objetivo la optimización de los
elementos industriales a través de la optimización de cada uno de sus subprocesos con
nuevas herramientas sinérgicas.
Antecedentes [editar]
La Mecatrónica tiene como antecedentes inmediatos a la investigación en el área de
Cibernética realizada en 1936 por Turing y en 1948 por Wiener y Morthy, las máquinas de
control numérico, desarrolladas inicialmente en 1946 por Devol, los manipuladores, ya sean
teleoperados, en 1951 por Goertz, o robotizados, en 1954 por Devol, y los autómatas
programables, desarrollados por Bedford Associates en 1968.
En 1969 la empresa japonesa Yaskawa Electric Co. acuña el término Mecatrónica,
recibiendo en 1971 el derecho de marca. En 1982 Yaskawa permite el libre uso del término.
Actualmente existen diversas definiciones de Mecatrónica, dependiendo del área de interés
del proponente. En particular, la UNESCO define a la Mecatrónica como:
"La integración sinérgica de la ingeniería mecánica con la electrónica y
el control inteligente por computadora en el diseño y manufactura de
productos y procesos".
Sin embargo, una manera más interesante de definir la Mecatrónica es posible por:
"Diseño y construcción de sistemas mecánicos inteligentes".
Componentes [editar]
Mecanismos [editar]
En el área de mecanismos, los principales problemas son reducción de complejidad,
eliminación de mecanismos y síntesis de mecanismos mecatrónicos.
La reducción de la complejidad se refiere a reducir el número de elementos del mecanismo,
mediante el uso de control inteligente. La eliminación del mecanismo implica el uso directo
de actuadores y de controles más sofisticados. La síntesis de mecanismos mecatrónicos
consiste en utilizar actuadores directamente en el mecanismo para mejorar su movimiento;
un ejemplo de síntesis es el desarrollo de rodamientos con actuación magnética para
eliminar la fricción. Se caracteriza por una mejor caracterización del mecanismo y el diseño
por computadora.
Actuadores [editar]
Todo mecanismo requiere de una fuente de potencia para operar. Inicialmente esta fuente
de potencia fue de origen animal, posteriormente se aprovechó la fuerza generada por el
flujo de aire o agua, pasando luego a la generación de potencia con vapor, por combustión
interna y actualmente con electricidad. Si esta fuente de potencia es modulable o
controlable, se tiene un actuador. Los principales desarrollos de los actuadores en la
Mecatrónica son: manejo directo, eliminando mecanismos, utilizando actuadores
electromagnéticos, piezoeléctricos y ultrasónicos.También deben considerarse los
actuadores neumáticos u oleo-hidráulicos. Un tipo de actuadores muy utilizados son los
motores eléctricos; se han desarrollado investigaciones en nuevos modelos matemáticos,
nuevos tipos de manejadores y en nuevos tipos de control. Un tipo de actuador que se ha
utilizado mucho en nanomaquinaria son los actuadores electrostáticos.
Controles [editar]
Un área muy desarrollada en la Mecatrónica es el control. Se tienen dos tendencias
importantes: el uso de las técnicas más modernas de la teoría de control automático y el
desarrollo de controles inteligentes, que busca mejorar la percepción del medio ambiente y
obtener una mejor autonomía. Algunos de los avances más importantes en la rama del
control automático son: redes neuronales, modos deslizantes, control de sistemas a eventos
discretos, control adaptable, lógica difusa y control robusto.
Sensores [editar]
Los sensores son dispositivos que permiten medir el estado del mecanismo o del medio
ambiente. La incorporación de sensores a los mecanismos es el resultado de utilizar
controles de lazo cerrado. Un ejemplo muy desarrollado es el uso de la visión artificial, la
cual se usa para determinar la posición y la orientación del mecanismo, del ambiente o de
las herramientas, sin embargo, no siempre es posible medir directamente alguna variable se
estima su valor por medio de observadores del estado y filtros. Por otro lado, se tiene la
fusión de sensores. Un problema que se ha manejado recientemente es el desarrollo de
referenciales \emph{fijos} para determinar la posición y orientación en problemas de
navegación, siendo resuelto por medio de sistemas de posicionamiento global (GPS, por sus
siglas en inglés).
Aplicaciones [editar]
En cuanto a aplicaciones, los rubros más importantes son robótica, sistemas de transporte,
sistemas de manufactura, máquinas de control numérico, nanomáquinas y biomecatrónica.
La robótica es la parte de la técnica de diseño y construcción de autómatas flexibles y
reprogramables, capaces de realizar diversas funciones. Es el nivel de automatización más
flexible y en mucho indica las tendencias futuras del resto de la mecatrónica. Las líneas de
investigación más desarrolladas son: síntesis de manipuladores y herramientas,
manipuladores de cadena cinemática cerradas, robots autónomos, robots cooperativos,
control y teleoperación asincrónicas (por medio de conexiones TCP/IP), estimación del
ambiente, comportamiento inteligente, interfaces hápticas, navegación y locomoción.
La aplicación de la Mecatrónica en el transporte se desarrolla en el diseño de mecanismos
activos (ejemplo: suspensiones activas), control de vibraciones, estabilización de
mecanismos y navegación autónoma.
En la manufactura, la Mecatrónica se ha servido de los modelos de sistemas a eventos
discretos, y los ha aplicado para el diseño óptimo de líneas de producción así como la
optimización de procesos ya existente. También ha ayudado a automatizar las líneas de
producción y generar el concepto de manufactura flexible.
Antecedentes de la Mecatrónica son las máquinas de control numérico. En este tema los
desarrollos más recientes son: análisis, detección y control de vibraciones, y temperatura,
en las herramientas de corte, diagnóstico de las herramientas de corte y prototipaje rápido,
electroerosionado y síntesis por láser.
Las nanomáquinas son un área que se han beneficiado de los desarrollos de la Mecatrónica.
Un ejemplo muy evidente es el desarrollo del disco duro. Las líneas de investigación más
manejadas son: micromanejo, microactuadores y micromaquinado.
La biomecatrónica es la aplicación de la mecatrónica para resolver problemas de sistemas
biológicos, en particular el desarrollo de nuevos tipos de prótesis, simuladores quirúrgicos,
control de posición de instrumental médico (por ejemplo catéteres), sillas de ruedas y
teleoperación quirúrgica.
Tecnología
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Contenido
[ocultar]
• 1 Definición
• 2 Funciones de las tecnologías
• 3 Diferencias entre tecnologías, técnicas, ciencias, y artes
• 4 Métodos de las tecnologías
○ 4.1 Herramientas e instrumentos
○ 4.2 Invención de artefactos
• 5 Hitos del desarrollo tecnológico
○ 5.1 Algunos hitos tecnológicos prehistóricos
○ 5.2 Algunos hitos tecnológicos históricos
• 6 Economía y tecnologías
○ 6.1 Teoría económica
○ 6.2 Industria
○ 6.3 Servicios
○ 6.4 Comercio
○ 6.5 Recursos naturales
○ 6.6 Trabajo
6.6.1 Taylorismo
6.6.2 Fordismo
6.6.3 Toyotismo
6.6.4 La desaparición y creación de puestos de trabajo
○ 6.7 Publicidad
• 7 Impactos de la tecnología
• 8 Funciones no técnicas de los productos tecnológicos
○ 8.1 Función estética de los objetos tecnológicos
○ 8.2 Función simbólica de los objetos tecnológicos[41]
• 9 Cultura y tecnologías
• 10 Medio ambiente y tecnologías
• 11 Ética y tecnologías
• 12 Tecnologías apropiadas
○ 12.1 Ejemplos de tecnologías apropiadas
• 13 Ludismo
• 14 Oficios técnicos y profesiones tecnológicas
• 15 Referencias
• 16 Bibliografía
• 17 Véase también
• 18 Enlaces externos
[editar] Definición
La versión 1992 del Diccionario de la Real Academia daba las siguientes acepciones de
tecnología:
• 1. Conjunto de los conocimientos propios de un oficio mecánico o arte
industrial. Esta acepción era incompleta porque hay tecnologías que no
corresponden a oficios mecánicos, como las informáticas. Era ambigua
porque sugería una inexistente relación entre tecnologías y artes. Era
tautológica porque las que antiguamente se denominaban artes
industriales hoy se denominan técnicas, concepto que en el habla
cotidiana es sinónimo de tecnología.
• 2. Tratado de los términos técnicos. Esta acepción se refiere sólo a la
terminología técnica, la parte verbalmente expresable de los saberes
tecnológicos.
• 3. Lenguaje propio de una ciencia o de un arte. Esta acepción es similar
a la anterior.
• 4. Conjunto de los instrumentos y procedimientos industriales de un
determinado sector o producto. Esta acepción es sólo aplicable a las
tecnologías industriales.
La versión 2006 del Diccionario de la Real Academia ha reemplazado la primera acepción
por la siguiente:
• 1. Conjunto de teorías y de técnicas que permiten el aprovechamiento
práctico del conocimiento científico. Esta acepción asimila la tecnología
a ciencia aplicada o tecno-ciencia, lo que sólo es válido para algunas
tecnologías, las basadas en saberes científicos.
Es un error común en muchas páginas Web denominar tecnología, a secas, a la tecnología
informática, la tecnología de procesamiento de información por medios artificiales, entre
los que se incluye, pero no de modo excluyente, a las computadoras/ordenadores.
En primera aproximación, una tecnología es el conjunto de saberes, destrezas y medios
necesarios para llegar a un fin predeterminado mediante el uso de objetos artificiales o
artefactos. Esta definición es todavía insuficiente porque no permite diferenciarlas de las
artes y las ciencias, para lo cual hay que analizar las funciones y finalidades de las
tecnologías.
• Domesticación del caballo: Alrededor del 3.000 a. C., en las estepas del
sur de Eurasia. La ampliación del radio de acción y de la capacidad de
transporte, así como su eficacia como arma de guerra, produjeron
enormes modificaciones sociales en las culturas que incorporaron el
caballo (denominadas culturas ecuestres), produciendo su transición de
la vida pastorial a la guerrera.[16]
• Fabricación del vidrio: Alrededor del 3.000 a. C., en Egipto.[17] A pesar de
la sencillez de su fabricación fue inicialmente usado sólo para fabricar
vajilla, en especial copas o vasos, y objetos para el culto religioso. Su
uso en ventanas es muy posterior y fue hecho inicialmente sólo por los
ricos.
• Metalurgia del bronce: Alrededor del 4.500 a. C. en Bang Chieng
(Tailandia). Esta dura aleación de cobre y estaño proporcionó las
primeras armas y herramientas muy duras y poco frágiles.[18]
• Regla de cálculo: Año 1594, Escocia (Gran Bretaña). John Napier o Neper
inventa reglillas calibradas de modo logarítmico para reducir las
multiplicaciones y divisiones a sumas y restas. La regla de cálculo y el
ábaco (que la precedió en varios siglos) fueron los primeros dispositivos
mecánicos de cálculo numérico.]].[24]
• Telar automático: En 1725 el francés Basile Bouchon construye el primer
telar donde se controlan los hilos de la urdimbre con cintas de papel
perforadas, permitiendo repetir complejos diseños sin errores. En 1728,
en Lyon, el tejedor de seda francés Falcon perfecciona el telar de
Bouchon reemplazando las frágiles cintas de papel por tarjetas
perforadas de cartón. El hábil ingeniero francés Jacques Vaucanson
perfecciona poco después el dispositivo, pero es aún demasiado
complejo para ser práctico. En 1807 el francés Joseph-Marie Jacquard
construye un telar práctico totalmente automático. Nació así el primer
dispositivo mecánico completamente programable, remoto antecesor de
las modernas computadoras.[25]
[editar] Servicios
Artículo principal: Servicio
Hasta los servicios personales requieren de las tecnologías para su buena prestación. Las
ropas de trabajo, los útiles, los edificios donde se trabaja, los medios de comunicación y
registro de información son productos tecnológicos. Servicios esenciales como la provisión
de agua potable, tecnologías sanitarias, electricidad, eliminación de residuos, barrido y
limpieza de calles, mantenimiento de carreteras, teléfonos, gas natural, radio, televisión...
no podrían brindarse sin el uso intensivo de múltiples tecnologías.
Las tecnologías de las telecomunicaciones, en particular, han experimentado enormes
progresos a partir de la instalación en órbita de los primeros satélites de comunicaciones,
del aumento de velocidad, memoria y disminución de tamaño de las/los
computadoras/ordenadores, de la miniaturización de circuitos electrónicos (circuitos
integrados, de la invención de los teléfonos celulares. Esto permite comunicaciones casi
instantáneas entre dos puntos cualesquiera del planeta, pero la mayor parte de la población
todavía no tiene acceso a ellas.
[editar] Comercio
Artículo principal: Comercio
Un país con grandes recursos naturales será pobre si no tiene las tecnologías necesarias para
su ventajosa explotación, lo que requiere una enorme gama de tecnologías de
infraestructura y servicios esenciales. Asimismo, un país con grandes recursos naturales
bien explotados tendrá una población pobre si la distribución de ingresos no permite a ésta
un acceso adecuado a las tecnologías imprescindibles para la satisfacción de sus
necesidades básicas. En la actual economía capitalista, el único bien de cambio que tiene la
mayoría de las personas para la adquisición de los productos y servicios necesarios para su
supervivencia es su trabajo. La disponibilidad de trabajo, condicionada por las tecnologías,
es hoy una necesidad humana esencial.
[editar] Trabajo
Si bien las técnicas y tecnologías también son parte esencial del trabajo artesanal, el trabajo
fabril introdujo variantes tanto desde el punto de vista del tipo y propiedad de los medios de
producción, como de la organización y realización del trabajo de producción. El alto costo
de las máquinas usadas en los procesos de fabricación masiva, origen del capitalismo, tuvo
como consecuencia que el trabajador perdiera la propiedad, y por ende el control, de los
medios de producción de los productos que fabricaba.[35] Perdió también el control de su
modo de trabajar, de lo que es máximo exponente el taylorismo.
[editar] Taylorismo
Artículo principal: Taylorismo
Según Frederick W. Taylor, la organización del trabajo fabril debía eliminar tanto los
movimientos inútiles de los trabajadores —por ser consumo innecesario de energía y de
tiempo— como los tiempos muertos —aquellos en que el obrero estaba ocioso. Esta
"organización científica del trabajo", como se la llamó en su época, disminuía la incidencia
de la mano de obra en el costo de las manufacturas industriales, aumentando su
productividad. Aunque la idea parecía razonable , no tenía en cuenta las necesidades de los
obreros y fue llevada a límites extremos por los empresarios industriales. La reducción de
las tareas a movimientos lo más sencillos posibles se usó para disminuir las destrezas
necesarias para el trabajo, transferidas a máquinas, reduciendo en consecuencia los salarios
y aumentando la inversión de capital y lo que Karl Marx denominó la plusvalía. Este
exceso de especialización hizo que el obrero perdiera la satisfacción de su trabajo, ya que la
mayoría de ellos nunca veía el producto terminado. Asimismo, llevada al extremo, la
repetición monótona de movimientos generaba distracción, accidentes, mayor ausentismo
laboral y pérdida de calidad del trabajo.[36] Las tendencias contemporáneas, una de cuyas
expresiones es el toyotismo, son de favorecer la iniciativa personal y la participación en
etapas variadas del proceso productivo (flexibilización laboral), con el consiguiente
aumento de satisfacción, rendimiento y compromiso personal en la tarea.
[editar] Fordismo
Artículo principal: Fordismo
Henry Ford, el primer fabricante de automóviles que puso sus precios al alcance de un
obrero calificado, logró reducir sus costos de producción gracias a una rigurosa
organización del trabajo industrial. Su herramienta principal fue la cadena de montaje que
reemplazó el desplazamiento del obrero en busca de las piezas al desplazamiento de éstas
hasta el puesto fijo del obrero. La disminución del costo del producto se hizo a costa de la
transformación del trabajo industrial en una sencilla tarea repetitiva, que resultaba
agotadora por su ritmo indeclinable y su monotonía. La metodología fue satirizado por el
actor y director inglés Charles Chaplin en su clásico film Tiempos modernos y hoy estas
tareas son hechas por robots industriales.
La técnica de producción en serie de grandes cantidades de productos idénticos para
disminuir su precio está perdiendo gradualmente validez a medida que las maquinarias
industriales son crecientemente controladas por computadoras que permiten variar con bajo
costo las características de los productos. Éste es, por ejemplo, el caso del corte de prendas
de vestir, aunque siguen siendo mayoritariamente cosidas por costureras con la ayuda de
máquinas de coser individuales en puestos fijos de trabajo.[36]
[editar] Toyotismo
Artículo principal: Toyotismo
La elección, desarrollo y uso de tecnologías puede tener impactos muy variados en todos
los órdenes del quehacer humano y sobre la naturaleza. Uno de los primeros investigadores
del tema fue McLuhan, quien planteó las siguientes cuatro preguntas a contestar sobre cada
tecnología particular:[39]
• ¿Qué genera, crea o posibilita?
• ¿Qué preserva o aumenta?
• ¿Qué recupera o revaloriza?
• ¿Qué reemplaza o deja obsoleto?
Este cuestionario puede ampliarse para ayudar a identificar mejor los impactos, positivos o
negativos, de cada actividad tecnológica tanto sobre las personas como sobre su cultura, su
sociedad y el medio ambiente:[40]
• Impacto práctico: ¿Para qué sirve? ¿Qué permite hacer que sin ella
sería imposible? ¿Qué facilita?
• Impacto simbólico: ¿Qué simboliza o representa? ¿Qué connota?
• Impacto tecnológico: ¿Qué objetos o saberes técnicos preexistentes lo
hacen posible? ¿Qué reemplaza o deja obsoleto? ¿Qué disminuye o hace
menos probable? ¿Qué recupera o revaloriza? ¿Qué obstáculos al
desarrollo de otras tecnologías elimina?
• Impacto ambiental: ¿El uso de qué recursos aumenta, disminuye o
reemplaza? ¿Qué residuos o emanaciones produce? ¿Qué efectos tiene
sobre la vida animal y vegetal?
• Impacto ético: ¿Qué necesidad humana básica permite satisfacer
mejor? ¿Qué deseos genera o potencia? ¿Qué daños reversibles o
irreversibles causa? ¿Qué alternativas más beneficiosas existen?
• Impacto epistemológico: ¿Qué conocimientos previos cuestiona? ¿Qué
nuevos campos de conocimiento abre o potencia?
[editar] Ludismo
El ludismo o luddismo, denominado así por un no se sabe si real o imaginario personaje
destructor de máquinas en la Inglaterra de la Revolución industrial, Ned Ludd, es la
ideología que atribuye a los dispositivos tecnológicos ser la causa de muchos males de la
sociedad moderna. Los luditas consideran que las máquinas quitan puestos de trabajo a las
personas, las alejan de la sana vida natural y destruyen el medio ambiente. Uno de los más
notorios luditas contemporáneos fue Theodore John Kaczynski, el Unabomber, quien mató
e hirió a muchos tecnólogos usando cartas bomba.
Los luditas no diferencian entre las tecnologías y las finalidades para las que son usadas,
englobándolas a todas en la misma categoría. Consideran así, tal vez sin expresarlo
verbalmente, que las tecnologías médicas, que salvan anualmente centenares de millones de
vidas, no tienen diferencias esenciales con las tecnologías de la guerra, que matan a
centenares de miles de personas en el mismo lapso. Este sincretismo elude u oscurece la
necesaria discusión de la concordancia ética entre medios y fines que es la base de los
imperativos categóricos kantianos.
Las elecciones a steward de la Fundación Wikimedia para el [Contraer]
[Ayúdanos
2010 han comenzado. Vota por favor. traduciendo.]
Historia de la electricidad
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Un fragmento de ámbar como el que pudo utilizar Tales de Mileto en su
experimentación del efecto triboeléctrico. El nombre en griego de este material
(ελεκτρον, elektron) se utilizó para nombrar al fenómeno y la ciencia que lo
estudia, a partir del libro De Magnete, Magneticisque Corporibus, et de Magno
Magnete Tellure, de William Gilbert (1600).
Contenido
[ocultar]
• 1 Siglo XVII
○ 1.1 William Gilbert: materiales eléctricos y materiales aneléctricos
(1600)
○ 1.2 Otto von Guericke: las cargas eléctricas (1660)
• 2 Siglo XVIII: la Revolución industrial
○ 2.1 Stephen Gray: los efluvios (1729)
○ 2.2 Charles François de Cisternay Du Fay: carga vítrea y carga
resinosa (1733)
○ 2.3 Pieter van Musschenbroek: la botella de Leyden (1745)
○ 2.4 William Watson: la corriente eléctrica (1747)
○ 2.5 Benjamin Franklin: el pararrayos (1752)
○ 2.6 Charles-Augustin de Coulomb: fuerza entre dos cargas (1777)
○ 2.7 Luigi Galvani: el impulso nervioso (1780)
○ 2.8 Alessandro Volta: la pila de Volta (1800)
• 3 Principios del siglo XIX: el tiempo de los teóricos
○ 3.1 Humphry Davy: la electrólisis (1807) y el arco eléctrico (1808)
○ 3.2 Hans Christian Ørsted: el electromagnetismo (1819)
○ 3.3 Thomas Johann Seebeck: la termoelectricidad (1821)
○ 3.4 André-Marie Ampère: el solenoide (1822)
○ 3.5 William Sturgeon: el electroimán (1825), el conmutador (1832)
y el galvanómetro (1836)
○ 3.6 Georg Simon Ohm: la ley de Ohm (1827)
○ 3.7 Joseph Henry: inducción electromagnética (1830)
○ 3.8 Johann Carl Friedrich Gauss: Teorema de Gauss de la
electrostática
○ 3.9 Michael Faraday: inducción (1831), generador (1831-1832),
leyes y jaula de Faraday
○ 3.10 Heinrich Friedrich Lenz: ley de Lenz (1834)
○ 3.11 Jean Peltier: efecto Peltier (1834), inducción electrostática
(1840)
○ 3.12 Samuel Morse: telégrafo (1833-1837)
○ 3.13 Ernst Werner M. von Siemens: Locomotora eléctrica (1879)
○ 3.14 Charles Wheatstone: puente de Wheatstone (1843)
○ 3.15 James Prescott Joule: relaciones entre electricidad, calor y
trabajo (1840-1843)
○ 3.16 Gustav Robert Kirchhoff: leyes de Kirchhoff (1845)
○ 3.17 William Thomson (Lord Kelvin): relación entre los efectos
Seebeck y Peltier (1851), cable flexible (1858)
○ 3.18 Heinrich Daniel Ruhmkorff: la bobina de Ruhmkorff genera
chispas de alto voltaje (1851)
○ 3.19 Léon Foucault: corrientes de Foucault (1851)
○ 3.20 Zénobe-Théophile Gramme: la primera dinamo (1870)
○ 3.21 Johann Wilhelm Hittorf: el primer tubo de rayos catódicos
(1872)
○ 3.22 James Clerk Maxwell: las cuatro ecuaciones de Maxwell
(1875)
• 4 Finales del siglo XIX: el tiempo de los ingenieros
○ 4.1 Alexander Graham Bell: el teléfono (1876)
○ 4.2 Thomas Alva Edison: desarrollo de la lámpara incandescente
(1879), Menlo Park y comercialización
○ 4.3 John Hopkinson: el sistema trifásico (1882)
○ 4.4 Heinrich Rudolf Hertz: demostración de las ecuaciones de
Maxwell y la teoría electromagnética de la luz (1887)
○ 4.5 George Westinghouse: el suministro de corriente alterna
(1886)
○ 4.6 Nikola Tesla: desarrollo de máquinas eléctricas, la bobina de
Tesla (1884-1891) y el radiotransmisor (1893)
○ 4.7 Charles Proteus Steinmetz: la histéresis magnética (1892)
○ 4.8 Wilhelm Conrad Röntgen: los rayos X (1895)
○ 4.9 Michael Idvorsky Pupin: la bobina de Pupin (1894) y las
imágenes de rayos X (1896)
○ 4.10 Joseph John Thomson: los rayos catódicos (1897)
○ 4.11 Hermanos Lumière: el inicio del cine (1895)
○ 4.12 Guglielmo Marconi: la telegrafía inalámbrica (1899)
○ 4.13 Peter Cooper Hewitt: la lámpara de vapor de mercurio (1901-
1912)
○ 4.14 Gottlob Honold: la magneto de alta tensión, la bujía (1902) y
los faros parabólicos (1913)
• 5 Los cambios de paradigma del siglo XX
○ 5.1 Hendrik Antoon Lorentz: Las transformaciones de Lorentz
(1900) y el efecto Zeeman (1902)
○ 5.2 Albert Einstein: El efecto fotoeléctrico (1905)
○ 5.3 Robert Andrews Millikan: El experimento de Millikan (1909)
○ 5.4 Heike Kamerlingh Onnes: Superconductividad (1911)
○ 5.5 Vladimir Zworykin: La televisión (1923)
○ 5.6 Edwin Howard Armstrong: Frecuencia modulada (FM) (1935)
○ 5.7 Robert Watson-Watt: El radar (1935)
• 6 La segunda mitad del siglo XX: Era Espacial o Edad de la Electricidad
○ 6.1 Televisión
○ 6.2 Ordenadores
○ 6.3 Transistor, Electrónica digital y Superconductividad
○ 6.4 El reto de la generación de electricidad
6.4.1 Centrales nucleares
6.4.2 Combustibles fósiles y fuentes renovables
○ 6.5 Robótica y máquinas CNC
○ 6.6 Láser
○ 6.7 Electrificación de los ferrocarriles
○ 6.8 Electromedicina
○ 6.9 Telecomunicaciones e Internet
• 7 Véase también
• 8 Bibliografía
• 9 Referencias
• 10 Enlaces externos
○ 10.1 Vídeos
William Gilbert
Las investigaciones de Gilbert fueron continuadas por el físico alemán Otto von Guericke
(1602-1686). En las investigaciones que realizó sobre electrostática observó que se
producía una repulsión entre cuerpos electrizados luego de haber sido atraídos. Ideó la
primera máquina electrostática y sacó chispas de un globo hecho de azufre, lo cual le llevó
a especular sobre la naturaleza eléctrica de los relámpagos. Fue la primera persona que
estudió la luminiscencia.[7]
Véase también: Otto von Guericke
William Watson
Sir William Watson (1715-1787), médico y físico inglés, estudió los fenómenos eléctricos.
Realizó reformas en la botella de Leyden agregándole una cobertura de metal, descubriendo
que de esta forma se incrementaba la descarga eléctrica. En 1747 demostró que una
descarga de electricidad estática es una corriente eléctrica. Fue el primero en estudiar la
propagación de corrientes en gases enrarecidos.[11]
Véase también: William Watson
Charles-Augustin de Coulomb
El médico y físico italiano Luigi Galvani (1737-1798) se hizo famoso por sus
investigaciones sobre los efectos de la electricidad en los músculos de los animales.
Mientras disecaba una rana halló accidentalmente que sus patas se contraían al tocarlas con
un objeto cargado de electricidad. Por ello se le considera el iniciador de los estudios del
papel que desempeña la electricidad en el funcionamiento de los organismos animales. De
sus discusiones con otro gran científico italiano de su época, Alessandro Volta, sobre la
naturaleza de los fenómenos observados, surgió la construcción de la primera pila, o
aparato para producir corriente eléctrica continua, llamado pila de Volta. El nombre de
Luigi Galvani sigue hoy asociado con la electricidad a través de términos como galvanismo
y galvanización. Sus estudios preludiaron una ciencia que surgiría mucho después: la
neurofisiología, estudio del funcionamiento del sistema nervioso en la que se basa la
neurología.[14]
Véase también: Luigi Galvani
Alessandro Volta
Humphry Davy
El físico y químico danés Hans Christian Ørsted (1777-1851) fue un gran estudioso del
electromagnetismo. En 1813 predijo la existencia de los fenómenos electromagnéticos y en
1819 logró demostrar su teoría empíricamente al descubrir, junto con Ampère, que una
aguja imantada se desvía al ser colocada en dirección perpendicular a un conductor por el
que circula una corriente eléctrica. Este descubrimiento fue crucial en el desarrollo de la
electricidad, ya que puso en evidencia la relación existente entre la electricidad y el
magnetismo. En homenaje a sus contribuciones se denominó Oersted (símbolo Oe) a la
unidad de intensidad de campo magnético en el sistema Gauss. Se cree que también fue el
primero en aislar el aluminio, por electrólisis, en 1825. En 1844 publicó su Manual de
Física Mecánica.[18]
Véase también: Hans Christian Ørsted
André-Marie Ampère
Georg Simon Ohm (1789-1854) fue un físico y matemático alemán que estudió la relación
entre el voltaje V aplicado a una resistencia R y la intensidad de corriente I que circula por
ella. En 1827 formuló la ley que lleva su nombre (la ley de Ohm), cuya expresión
matemática es V = I · R. También se interesó por la acústica, la polarización de las pilas y
las interferencias luminosas. En su honor se ha bautizado a la unidad de resistencia eléctrica
con el nombre de Ohm (símbolo Ω), castellanizado a Ohmio.[22]
Véase también: Georg Simon Ohm
Joseph Henry
Artículo principal: Electroimán
1832-1835. El matemático, astrónomo y físico alemán Johann Carl Friedrich Gauss (1777-
1855), hizo importantes contribuciones en campos como la teoría de números, el análisis
matemático, la geometría diferencial, la geodesia, la electricidad, el magnetismo y la óptica.
Considerado uno de los matemáticos de mayor y más duradera influencia, se contó entre los
primeros en extender el concepto de divisibilidad a conjuntos diferentes de los numéricos.
En 1831 se asoció al físico Wilhelm Weber durante seis fructíferos años durante los cuales
investigaron importantes problemas como las Leyes de Kirchhoff y del magnetismo,
construyendo un primitivo telégrafo eléctrico. Su contribución más importante a la
electricidad es la denominada Ley de Gauss, que relaciona la carga eléctrica q contenida en
un volumen V con el flujo del campo eléctrico sobre la cerrada superficie S que encierra
el volumen V, cuya expresión matemática es:
.
En su honor se dio el nombre de Gauss (símbolo G) a la unidad de intensidad de campo
magnético del Sistema Cegesimal de Unidades (CGS). Su relación con la correspondiente
unidad del Sistema Internacional de Unidades (SI), el Tesla (símbolo T), es 1 G = 10-4 T.[24]
Véase también: Johann Carl Friedrich Gauss
Michael Faraday
Jean Peltier
El físico francés y relojero de profesión Jean Peltier (1785-1845) descubrió en 1834 que
cuando circula una corriente eléctrica por un conductor formado por dos metales distintos,
unidos por una soldadura, ésta se calienta o enfría según el sentido de la corriente (efecto
Peltier). Dicho efecto ha revestido gran importancia en el desarrollo reciente de
mecanismos de refrigeración no contaminantes. A Peltier se le debe también la
introducción del concepto de inducción electrostática en 1840, referido a la modificación de
la distribución de la carga eléctrica en un material, bajo la influencia de un segundo objeto
próximo a él y que tenga una carga eléctrica.[27]
[editar] Samuel Morse: telégrafo (1833-1837)
Artículo principal: Telégrafo
Morse con un prototipo de su invención
Charles Wheatstone
James Prescott Joule (1818-1889), físico inglés, es conocido por sus estudios sobre la
energía y sus aplicaciones técnicas. Su principal contribución a la electricidad es la
cuantificación de la generación de calor producido por una corriente eléctrica que atraviesa
una resistencia, ley que lleva su nombre (Ley de Joule): Todo cuerpo conductor recorrido
por una corriente eléctrica, desprende una cantidad de calor equivalente al trabajo
realizado por el campo eléctrico para transportar las cargas de un extremo a otro del
Las principales contribuciones a la ciencia del físico alemán Gustav Robert Kirchhoff
(1824-1887), estuvieron en el campo de los circuitos eléctricos, la teoría de placas, la
óptica, la espectroscopía y la emisión de radiación de cuerpo negro. Kirchhoff propuso el
nombre de radiación de cuerpo negro en 1862. Es responsable de dos conjuntos de leyes
fundamentales en la teoría clásica de circuitos eléctricos y en la emisión térmica. Aunque
ambas se denominan Leyes de Kirchhoff, probablemente esta denominación es más común
en el caso de las Leyes de Kirchhoff de la ingeniería eléctrica. Estas leyes permiten calcular
la distribución de corrientes y tensiones en las redes eléctricas con derivaciones y
establecen lo siguiente: 1ª) La suma algebraica de las intensidades que concurren en un
punto es igual a cero. 2ª) La suma algebraica de los productos parciales de intensidad por
resistencia, en una malla, es igual a la suma algebraica de las fuerzas electromotrices en ella
existentes, cuando la intensidad de corriente es constante. Junto con los químicos alemanes
Robert Wilhelm Bunsen y Joseph von Fraunhofer, fue de los primeros en desarrollar las
bases teóricas y experimentales de la espectroscopia, desarrollando el espectroscopio
moderno para el análisis químico. En 1860 Kirchhoff y Bunsen descubrieron el cesio y el
rubidio mediante la espectroscopia. Kirchhoff también estudio el espectro solar y realizó
importantes investigaciones sobre la transferencia de calor.[32]
Véase también: Gustav Robert Kirchhoff
[editar] William Thomson (Lord Kelvin): relación entre los efectos Seebeck
y Peltier (1851), cable flexible (1858)
El físico alemán Heinrich Rudolf Hertz (1857-1894) demostró la existencia de las ondas
electromagnéticas predichas por las ecuaciones de Maxwell. Fue el primer investigador que
creó dispositivos que emitían ondas radioelectricas y también dispositivos que permitía
detectarlas. Hizo numerosos experimentos sobre su modo y velocidad de propagación (hoy
conocida como velocidad de la luz), en los que se fundamentan la radio y la telegrafía sin
hilos, que él mismo descubrió. En 1887 descubrió el efecto fotoeléctrico. La unidad de
medida de la frecuencia fue llamada Hertz (símbolo Hz) en su honor, castellanizada como
Hercio.[45]
Véase también: Heinrich Rudolf Hertz
El ingeniero e inventor de origen croata Nikola Tesla (1856-1943) emigró en 1884 a los
Estados Unidos. Es reconocido como uno de los investigadores más destacados en el campo
de la energía eléctrica. El Gobierno de Estados Unidos lo consideró una amenaza por sus
opiniones pacifistas y sufrió el maltrato de otros investigadores mejor reconocidos como
Marconi o Edison.[47]
Desarrolló la teoría de campos rotantes, base de los generadores y motores polifásicos de
corriente alterna. En 1887 logra construir el motor de inducción de corriente alterna y
trabaja en los laboratorios Westinghouse, donde concibe el sistema polifásico para trasladar
la electricidad a largas distancias. En 1893 consigue transmitir energía electromagnética sin
cables, construyendo el primer radiotransmisor (adelantándose a Guglielmo Marconi). Ese
mismo año en Chicago hizo una exhibición pública de la corriente alterna, demostrando su
superioridad sobre la corriente continua de Edison. Los derechos de estos inventos le fueron
comprados por George Westinghouse, que mostró el sistema de generación y transmisión
por primera vez en la World's Columbian Exposition de Chicago de 1893. Dos años más
tarde los generadores de corriente alterna de Tesla se instalaron en la central experimental
de energía eléctrica de las cataratas del Niágara. Entre los muchos inventos de Tesla se
encuentran los circuitos resonantes de condensador más inductancia, los generadores de alta
frecuencia y la llamada bobina de Tesla, utilizada en el campo de las comunicaciones por
radio.
La unidad de inducción magnética del sistema MKS recibe el nombre de Tesla en su honor.
[48]
El físico inglés Joseph John Thomson (1856-1940) descubrió que los rayos catódicos
podían desviarse aplicando un campo magnético perpendicular a su dirección de
propagación y calculó las leyes de dicha desviación. Demostró que estos rayos estaban
constituidos por partículas atómicas de carga negativa que llamó corpúsculos y hoy en día
conocemos como electrones. Demostró que la nueva partícula que había descubierto era
aproximadamente mil veces más ligera que el hidrógeno. Esta fue la primera identificación
de partículas subatómicas, con las grandes consecuencias que esto tuvo en el consiguiente
desarrollo de la ciencia y de la técnica. Posteriormente, midiendo la desviación en campos
magnéticos, obtuvo la relación entre la carga y la masa del electrón. También examinó los
rayos positivos y, en 1912, descubrió la manera de utilizarlos para separar átomos de
diferente masa. El objetivo se consiguió desviando los rayos positivos con campos
electromagnéticos (espectrometría de masa). Así descubrió que el neón tiene dos isótopos
(el neón-20 y el neón-22). Todos estos trabajos sirvieron a Thomson para proponer una
estructura del átomo, que más tarde se demostró incorrecta, ya que suponía que las
partículas positivas estaban mezcladas homogéneamente con las negativas. Thomson
también estudió y experimentó sobre las propiedades eléctricas de los gases y la
conducción eléctrica a través de los mismos, y fue justamente por esa investigación que
recibió el Premio Nobel de Física en 1906.[52]
Véase también: Joseph John Thomson
A finales del siglo XIX varios inventores estuvieron trabajando en varios sistemas que
tenían un objetivo común: el visionado y proyección de imágenes en movimiento. Entre
1890 y 1895, son numerosas las patentes que se registran con el fin de ofrecer al público las
primeras "tomas de vistas" animadas. Entre los pioneros se encuentran los alemanes Max y
Emil Skladanowski, los estadounidenses Charles F. Jenkins, Thomas Armat y Thomas Alva
Edison (kinetoscopio), y los franceses hermanos Lumière (cinematógrafo). Sin embargo,
aunque ya existían películas no era posible proyectarlas en una sala cinematográfica. El
cine fue oficialmente inaugurado con la primera exhibición pública, en París, el 28 de
diciembre de 1895. La conexión del nuevo invento con la electricidad no fue inmediata,
porque los movimientos mecánicos se producían manualmente (lo que producía problemas
de variación de la velocidad, pero también era utilizado como parte de los efectos
especiales); mientras que la luz de las primeras linternas provenía de una llama generada
por la combustión de éter y oxígeno. Pero usar una llama junto al celuloide (que era
empleado como soporte para las películas, y que es muy inflamable) constituía una fuente
constante de graves peligros para proyeccionistas y espectadores, por lo que se buscaron
sustitutos a la fuente luminosa. Al extenderse las redes eléctricas se empleó el arco eléctrico
incandescente. Inicialmente se usaban dos electrodos de carbón alimentados con una
corriente continua, uno con carga positiva y otra con carga negativa. En la actualidad se
realiza el paso de la corriente continua a través de dos conductores, encerrados en una
cápsula de gas, normalmente xenón. Estas lámparas de xenón llevan en su interior dos
electrodos entre los que salta el arco voltaico que produce la luz. En cuanto a la
motorización eléctrica del funcionamiento de la cámara y del proyector se hizo ineludible
con el tiempo, sobre todo tras el paso al cine sonoro (primera proyección experimental en
París, 1900, y de un modo eficaz en Nueva York, 1923, siendo la primera película El
cantante de jazz, 1927), lo que implicaba también a las tecnologías del registro y
reproducción del sonido, inicialmente obtenido a partir de una banda lateral de opacidad
variable detectada por una celda fotoeléctrica (la banda sonora). A partir de entonces surgió
el concepto de medio audiovisual.
La tecnología del cine ha evolucionado mucho hasta el cine digital del siglo XXI y
simultáneamente ha evolucionado el lenguaje cinematográfico, incluyendo las
convenciones del género y los géneros cinematográficos. Más trascendente aún ha sido la
evolución conjunta de cine y sociedad, y el surgimiento de distintos movimientos
cinematográficos, cinematografías nacionales, etc. En Estados Unidos, Edison fue el
máximo impulsor del cine, consolidando una industria en la que deseaba ser el protagonista
indiscutible al considerarse como el único inventor y propietario del nuevo espectáculo. En
España, la primera proyección la ofreció un enviado de los Lumière a Madrid, el 15 de
mayo de 1896.[53]
Véase también: Hermanos Lumière
Guglielmo Marconi
Gottlob Honold
Vladimir Zworykin
Robert Watson-Watt
El radar (acrónimo de radio detection and ranging, detección y medición de distancias por
radio) fue creado en 1935 y desarrollado principalmente en Inglaterra durante la Segunda
Guerra Mundial. Su mayor impulsor fue el físico Robert Watson-Watt (1892-1973),
director del Laboratorio de Investigación de Radio. Ya en 1932, la Oficina Postal Británica
publicó un informe en el que sus científicos documentaron fenómenos naturales que
afectaban la intensidad de la señal electromagnética recibida: tormentas eléctricas, vientos,
lluvia y el paso de un aeroplano en la vecindad del laboratorio. Arnold Wilkins (1907-
1985), físico ayudante de Watson-Watts, conoció este informe de manera accidental,
conversando con la gente de la Oficina Postal, que se quejaba por la interferencia. Cuando
Wilkins sugirió la posibilidad de utilizar el fenómeno de interferencia de ondas de radio
para detectar aviones enemigos, Watson-Watt lo comisionó inmediatamente para trabajar
en el cálculo de los aspectos cuantitativos.
El radar dio a la aviación británica una notable ventaja táctica sobre la alemana durante la
Batalla de Inglaterra, cuando aún era denominado RDF (Radio Direction Finding). En la
actualidad es una de las principales ayudas a la navegación con que cuenta el control de
tráfico aéreo de todo tipo, militar y civil.[65]
Véase también: Robert Watson-Watt
Después de la segunda guerra mundial, el mundo bipolar enfrentado a la guerra fría entre
los Estados Unidos y la Unión Soviética presenció la frenética carrera de armamentos y la
carrera espacial que impulsó de modo extraordinario la competencia científica y
tecnológica entre ambos países- En la sociedad de consumo capitalista, orientada al
mercado, algunos de estos logros encontraron aplicación a la vida cotidiana como retorno
tecnológico de lo invertido en las áreas de investigación puntera; caso de algunos rubros de
la industria ligera y los servicios (terciarización), mientras que en el bloque soviético la
planificación estatal privilegiaba la industria pesada. La reconstrucción de Europa
Occidental y Japón permitió que en ambos espacios se pudiera continuar a la vanguardia de
la ciencia y la tecnología, además de contribuir con la fuga de cerebros a los espacios
centrales.
Al científico y el inventor individual, ahora reemplazados en prestigio por el empresario
schumpeteriano, le sucedieron los equipos científicos vinculados a instituciones públicas o
privadas, cada vez más interconectadas y retroalimentadas en lo que se denomina
investigación y desarrollo (I+D) o incluso I+D+I (investigación, desarrollo e innovación).
Los programas de investigación se han hecho tan costosos, con tantas implicaciones y a tan
largo plazo que las decisiones que les afectan han de ser tomadas por instancias políticas y
empresariales de alto nivel, y su publicidad o su mantenimiento en secreto (con fines
estratégicos o económicos) constituyen un problema serio de control social (con principios
democráticos o sin ellos).
La segunda mitad del siglo XX se caracterizó, entre otras cosas, por la denominada
Revolución científico-técnica de la tercera revolución industrial, con avances de las
tecnologías (especialmente la electrónica y la medicina) y las ciencias, que ha dado lugar al
desarrollo de una numerosísima serie de inventos -dependientes de la electricidad y la
electrónica en su diseño y funcionamiento- que transformaron la vida social, primero en las
clases medias de los países desarrollados, y posteriormente en todo el mundo con el
proceso de globalización. El desarrollo de las telecomunicaciones e internet permite hablar
de una sociedad de la información en la que, en los países industrialmente más
desarrollados las decisiones económicas (como consumir, producir y distribuir), sociales
(como el establecimiento de todo tipo de relaciones personales, redes sociales y redes
ciudadanas) y políticas (como informarse y opinar, aunque la democracia electrónica sólo
está esbozada) se transmiten instantáneamente, lo que permitió a Marshall McLuhan hablar
de la Edad de la Electricidad.
La automatización (en estadios más avanzados la robótica, que aún no se ha desarrollado
plenamente) transformó radicalmente los procesos de trabajo industrial. Es posible hablar
ya no de una sociedad industrial opuesta a la sociedad preindustrial, sino incluso una
sociedad postindustrial basada en parámetros completamente nuevos. Entre los inventos
que han contribuido a la base material de esa nueva forma de vida caben destacar:
electrodomésticos, electrónica digital, ordenadores, robótica, satélites artificiales de
comunicación, energía nuclear, trenes eléctricos, refrigeración y congelación de alimentos,
electromedicina,etc.
[editar] Televisión
Artículo principal: Televisión
1923: El tubo de rayos catódicos era conocido desde finales del siglo XIX, pero su uso
debía esperar al diseño de un emisor eficaz, que se logró con el iconoscopio de Vladimir
Zworykin, un ingeniero ruso que venía diseñando tubos perfeccionados desde 1923. Se
basaba en miles de pequeñas células fotoeléctricas independientes cada una con tres capas:
una intermedia muy fina de mica, otra de una sustancia conductora (grafito en polvo
impalpable o plata) y otra fotosensible compuesta de millares de pequeños globulitos de
plata y óxido de cesio. Este mosaico, conocido con el nombre de mosaico electrónico de
Zworykin, se colocaba dentro de un tubo de vacío y sobre el mismo se proyectaba, mediante
un sistema de lentes, la imagen a captar. La parte relativa a la recepción y reproducción
fueron tubos catódicos derivados del disector de imagen de Philo Farnsworth (1927).
La primera imagen sobre un tubo de rayos catódicos se había formado en 1911 en el
Instituto Tecnológico de San Petersburgo y consistió en unas rayas blancas sobre fondo
negro, obtenidas por Boris Rosing en colaboración con Zworykin. La captación se realizó
mediante dos tambores de espejos (sistema Weiller) y generaba una exploración
entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran
generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las
bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que
recibía la célula fotoeléctrica.
Hay muchos países (Alemania, Inglaterra, Francia, Estados Unidos) que se disputan la
primacía en las primeras emisiones públicas de televisión, con un procedimiento u otro.
Desde finales de los años veinte se hicieron por procedimientos mecánicos anteriores al
iconoscopio, a cargo de empresas públicas (BBC en Inglaterra) o privadas (CBS o NBC en
Estados Unidos). En los primeros años treinta ya utilizaban el iconoscopio, como las que
tuvieron lugar en París en 1932 con una definición de 60 líneas. La precariedad de las
células empleadas para la captación hacía que se debiera iluminar muy intensamente las
escenas, produciendo tanto calor que sólo era posible el desarrollo del trabajo en los platós
por tiempos breves. Tres años después se emitía con 180 líneas.
Desde finales de los años treinta, culminando en la Feria Mundial de Nueva York de 1939,
se emitían programaciones regulares de televisión que fueron interrumpidas durante la
segunda guerra mundial. Para 1948, la naturaleza futura del invento todavía permitía
imaginaciones ucrónicas como la de George Orwell (1984 (novela)), en que aparece
encarnando la omnipresencia totalitaria del Big Brother (Gran Hermano).
A finales de los años cincuenta se desarrollaron los primeros magnetoscopios y las cámaras
con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos
avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación
electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los
años setenta se implementaron las ópticas Zoom y se empezaron a desarrollar
magnetoscopios más pequeños que permitían la grabación de las noticias en el lugar donde
se producían, con lo que nace el periodismo electrónico o ENG. La implantación de
sucesivas mejoras como la televisión en color y la televisión digital se ve frenado no tanto
por el desarrollo científico-tecnológico, sino por factores comerciales y por la dispersión y
el coste de sustitución de los equipos.[66]
[editar] Ordenadores
Artículo principal: Historia de la informática
ENIAC
1941 La primera computadora electrónica funcional de que se tiene noticia fue la alemana
Z3 de Konrad Zuse, construida en 1941 y destruida en los bombardeos aliados de 1943. La
utilización comercial de este tipo de aparatos, que revolucionaron la gestión de la
información y toda la vida social, económica y científica, tuvo que esperar a los años
cincuenta, tras su desarrollo en Estados Unidos.
La británica Colossus (diseñada por Tommy Flowers en la Estación de Investigación de la
Oficina Postal) y la estadounidense Harvard Mark I (construida por Howard H. Aiken en la
Universidad de Harvard con subvención de IBM entre 1939 y 1943), llegaron a tiempo de
usarse en la fase final de la segunda guerra mundial (1944-1945), la primera en el
descifrado de mensajes alemanes y la segunda para el cálculo de tablas de balística .
Inmediatamente después de la guerra, el Electronic Numerical Integrator And Computer
(Computador e Integrador Numérico Electrónico, ENIAC)[67] utilizado por el Laboratorio
de Investigación Balística del Ejército de los Estados Unidos fue construido en 1946 en la
Universidad de Pennsylvania por John Presper Eckert y John William Mauchly. Consumía
una potencia eléctrica suficiente para abastecer una pequeña ciudad, ocupaba una superficie
de 167 m² y operaba con un total de 17.468 válvulas electrónicas o tubos de vacío, 7.200
diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y 5 millones de
soldaduras. Pesaba 27 tn, medía 2,4 m x 0,9 m x 30 m; utilizaba 1.500 conmutadores
electromagnéticos y relés; requería la operación manual de unos 6.000 interruptores, y su
programa o software, cuando requería modificaciones, tardaba semanas de instalación
manual. La ENIAC podía resolver 5.000 sumas y 360 multiplicaciones en 1 segundo. Se
desactivó en 1955.
Le sustituyó en la misma institución la Electronic Discrete Variable Automatic Computer
(EDVAC),[68] en 1949. A diferencia de la ENIAC, no era decimal, sino binaria y tuvo el
primer programa diseñado para ser almacenado. Este diseño se convirtió en el estándar de
arquitectura para la mayoría de las computadoras modernas y un hito en la historia de la
informática. A los diseñadores anteriores se les había unido el gran matemático John von
Neumann. La EDVAC recibió varias actualizaciones, incluyendo un dispositivo de
entrada/salida de tarjetas perforadas en 1953, memoria adicional en un tambor magnético
en 1954 y una unidad de aritmética de punto flotante en 1958. Dejó de estar en activo en
1961.
La UNIVAC I (UNIVersal Automatic Computer I, computadora automática universal I),
también debida a J. Presper Eckert y John William Mauchly, fue la primera computadora
comercial y la primera diseñada desde el principio para su uso en administración y
negocios. El primer UNIVAC fue entregado a la Oficina de Censos de los Estados Unidos
(United States Census Bureau) en 1951 y fue puesto en servicio ese mismo año. Competía
directamente con las máquinas de tarjeta perforada hechas principalmente por IBM. Para
facilitar la compatibilidad de ambos tipos de máquina se construyó un equipo de
procesamiento de tarjetas fuera de línea, el convertidor UNIVAC de tarjeta a cinta y el
convertidor UNIVAC de cinta a tarjeta, para la transferencia de datos entre las tarjetas y las
cintas magnéticas que empleaba alternativamente.
IBM anunció en 1953 la primera producción a gran escala de una computadora, el IBM
650: 2000 unidades desde 1954 hasta 1962. Era un diseño orientado hacia los usuarios de
máquinas contables anteriores, como las tabuladoras electromecánicas (con tarjetas
perforadas) o el modelo IBM 604. Pesaba alrededor de 900 kg, y su unidad de alimentación
unos 1350. Cada unidad estaba en un armario separado, de 1,5 x 0,9 x 1,8 metros. Costaba
500.000 dólares, pero podía alquilarse por 3.500 al mes.
La tercera generación de este tipo de máquinas se inició con IBM 360, la primera en la
historia en ser atacada con un virus informático. Comercializada a partir de 1964, fue la
primera que usaba el término byte para referirse a 8 bits (con cuatro bytes creaba una
palabra de 32-bits). Su arquitectura de computación fue la que a partir de este modelo
siguieron todos los ordenadores de IBM. El sistema también hizo popular la computación
remota, con terminales conectadas a un servidor, por medio de una línea telefónica. Fue una
de las primeras computadoras comerciales que usó circuitos integrados, y podía realizar
tanto análisis numéricos como administración o procesamiento de archivos.
El Intel 4004 (i4004, primero de Intel), un CPU de 4bits, fue lanzado en un paquete de 16
pines CERDIP en 1971, siendo el primer microprocesador en un simple chip, así como el
primero disponible comercialmente. Daría paso a la construcción de los ordenadores
personales. El circuito 4004 fue construido con 2.300 transistores, y fue seguido el año
siguiente por el primer microprocesador de 8 bits, el 8008, que contenía 3.300 transistores,
y el 4040, versión revisada del 4004. El CPU que comenzó la revolución del
microcomputador, sería el 8080, usado en el Altair 880. El microprocesador es un circuito
integrado que contiene todos los elementos necesarios para conformar una "unidad central
de procesamiento" (UCP o CPU: Central Process Unit). En la actualidad este tipo de
componente electrónico se compone de millones de transistores, integrados en una misma
placa de silicio.
[editar] Transistor, Electrónica digital y Superconductividad
Artículo principal: Transistor
1951 Una central nuclear es una instalación industrial empleada para la generación de
energía eléctrica a partir de energía nuclear, que se caracteriza por el empleo de materiales
fisionables que mediante reacciones nucleares proporcionan calor. Este calor es empleado
por un ciclo termodinámico convencional para mover un alternador y producir energía
eléctrica. Las centrales nucleares constan de uno o varios reactores.
Se llama energía nuclear a aquella que se obtiene al aprovechar las reacciones nucleares
espontáneas o provocadas por el hombre. Estas reacciones se dan en algunos isótopos de
ciertos elementos químicos, siendo el más conocido de este tipo de energía la fisión del
uranio-235 (235U), con la que funcionan los reactores nucleares. Sin embargo, para producir
este tipo de energía aprovechando reacciones nucleares pueden ser utilizados muchos otros
isótopos de varios elementos químicos, como el torio, el plutonio, el estroncio o el polonio.
Los dos sistemas con los que puede obtenerse energía nuclear de forma masiva son la fisión
nuclear y la fusión nuclear.
El 2 de diciembre de 1942, como parte del proyecto Manhattan dirigido por J. Robert
Oppenheimer, se construyó el Chicago Pile-1 (CP-1), primer reactor nuclear hecho por el
hombre (existió un reactor natural en Oklo). El Departamento de Defensa de los Estados
Unidos propuso el diseño y construcción de un reactor nuclear utilizable para la generación
eléctrica y propulsión en los submarinos a dos empresas distintas norteamericanas: General
Electric y Westinghouse. Estas empresas desarrollaron los reactores de agua ligera tipo
BWR y PWR respectivamente. Los mismos diseños de reactores de fisión se trasladaron a
diseños comerciales para la generación de electricidad. Los únicos cambios producidos en
el diseño con el transcurso del tiempo fueron un aumento de las medidas de seguridad, una
mayor eficiencia termodinámica, un aumento de potencia y el uso de las nuevas tecnologías
que fueron apareciendo.
El 20 de diciembre de 1951 fue el primer día que se consiguió generar electricidad con un
reactor nuclear (en el reactor americano EBR-I, con una potencia de unos 100 kW), pero no
fue hasta 1954 cuando se conectó a la red eléctrica una central nuclear (fue la central
nuclear rusa de Obninsk, generando 5 MW con solo un 17% de rendimiento térmico). La
primera central nuclear con un rendimiento comercial fue la británica de Calder Hall, en
Sellafield, abierta en 1956 con una capacidad de 50 MW (ampliada posteriormente a 200
MW).[72] El desarrollo de la energía nuclear en todo el mundo experimentó a partir de ese
momento un gran crecimiento, de forma muy particular en Francia y Japón, donde la crisis
del petróleo de 1973 influyó definitivamente, ya que su dependencia en el petróleo para la
generación eléctrica era muy marcada. En 1986 el accidente de Chernóbil, en un reactor
RBMK de diseño ruso que no cumplía los requisitos de seguridad que se exigían en
occidente, acabó radicalmente con ese crecimiento. A partir de entonces, con la caída del
bloque del este desde 1989, el movimiento antinuclear, que se opone por un lado al arma
nuclear y por otra parte a la utilización de la energía nuclear, se ha visto desplazado de la
vanguardia del movimiento ecologista por otras cuestiones, como el cambio climático.
En octubre de 2007 existían 439 centrales nucleares en todo el mundo que generaron 2,7
millones de MWh en 2006. La potencia instalada en 2007 era de 370.721 MWe. Aunque
solo 30 países en el mundo poseen centrales nucleares, aproximadamente el 15% de la
energía eléctrica generada en el mundo se produce a partir de energía nuclear, aunque el
porcentaje está actualmente en disminución.[73] La mayoría de los países con centrales
nucleares han suspendido nuevas construcciones debido a los problemas de disposición
final de los combustibles nucleares, cuya actividad (y riesgos para la vida humana) perdura
durante muchos miles de años. Algunos científicos, como el galardonado físico Freeman
Dyson, sostienen que la exageración de los beneficios de la energía nuclear provienen de
una combinación de factores económicos y del sentido de culpa por los bombardeos
atómicos sobre Hiroshima y Nagasaki.
Véase también: Controversia sobre la energía nuclear
Una de las aplicaciones más significativas de la electricidad fue la casi total electrificación
de los ferrocarriles en los países más industrializados. La primera fase de este proceso, más
generalizada que la segunda, fue la sustitución de las locomotoras que utilizaban carbón,
por las locomotoras llamadas diésel que usan combustible obtenido del petróleo. Las
locomotoras diésel-eléctricas consisten básicamente en dos componentes: un motor diésel
que mueve un generador eléctrico y varios motores eléctricos (conocidos como motores de
tracción) que comunican a las ruedas (pares) la fuerza tractiva que mueve a la locomotora.
Generalmente hay un motor de tracción por cada eje, siendo generalmente 4 o 6 en una
locomotora típica. Los motores de tracción se alimentan con corriente eléctrica y luego, por
medio de engranajes , mueven las ruedas. En el caso de las locomotoras diésel no hace falta
que las vías estén electrificadas, y ya se usan en casi todas las vías del mundo estén las vías
electrificadas o no.
El siguiente avance tecnológico fue la puesta en servicio de locomotoras eléctricas directas,
las que usan como fuente de energía la energía eléctrica proveniente de una fuente externa,
para aplicarla directamente a motores de tracción eléctricos. Las locomotoras eléctricas
requieren la instalación de cables eléctricos de alimentación a lo largo de todo el recorrido,
que se sitúan a una altura por encima de los trenes a fin de evitar accidentes. Esta
instalación se conoce como catenaria. Las locomotoras toman la electricidad por un trole,
que la mayoría de las veces tiene forma de pantógrafo y como tal se conoce. El coste de la
instalación de alimentación hace que la tracción eléctrica solamente sea rentable en líneas
de gran tráfico, o bien en vías con gran parte del recorrido en túnel bajo montañas o por
debajo del mar, con dificultades para la toma de aire para la combustión de los otros tipos
de motor. En los años 1980 se integraron como propulsores de vehículos eléctricos
ferroviarios los motores asíncronos, y aparecieron los sistemas electrónicos de regulación
de potencia que dieron el espaldarazo definitivo a la elección de este tipo de tracción por las
compañías ferroviarias. Las dificultades de aplicar la tracción eléctrica en zonas con
climatología extrema hacen que en esos casos, se siga utilizando la tracción diésel, ya que
la nieve intensa y su filtración por ventiladores a las cámaras de alta tensión originan
derivaciones de circuitos eléctricos que dejan inservibles estas locomotoras mientras dure el
temporal. Las bajas temperaturas también afectan de diferente manera al cable de contacto
de la catenaria que pierde la conductividad durante intervalos de tiempo. El hito de los
trenes eléctricos lo constituyen los llamados trenes de alta velocidad cuyo desarrollo ha
sido el siguiente:
1964 El Shinkansen o tren bala japonés fue el primer tren de alta velocidad en utilizar un
trazado propio, y se inauguró para los Juegos Olímpicos de Tokio 1964. 1979 Un tren de
levitación magnética se instaló por primera vez en Hamburgo para la Exhibición
Internacional del Transporte (IVA 79), desarrollando patentes anteriores. Hubo pruebas
posteriores de trenes similares en Inglaterra y actualmente operan comercialmente líneas en
Japón y China. Se combinan con el sistema de monorraíl. 1981 El Tren de Gran
Velocidad (en francés: Train à Grande Vitesse), conocido como TGV, es un tipo de tren
eléctrico de alta velocidad desarrollado por la empresa francesa Alstom para hacer
inicialmente el recorrido entre París y Lyon. El TGV es uno de los trenes más veloces del
mundo, operando en algunos tramos a velocidades de hasta 320 km/h teniendo el récord de
mayor velocidad media en un servicio de pasajeros y el de mayor velocidad en condiciones
especiales de prueba. En 1990 alcanzó la velocidad de 515,3 km/h, y en el 2007 superó su
propio registro al llegar a los 574,8 km/h en la línea París-Estrasburgo.[87]
[editar] Electromedicina
Artículo principal: Electromedicina
Imagen radiológica en 3D
1895. Los rayos X fueron descubiertos en 1895 por el físico alemán Wilhelm Röntgen,
quien descubrió que el bombardeo de átomos metálicos con electrones de alta velocidad
produce la emisión de radiaciones de gran energía. Combinados con las tecnologías de la
fotografía, los rayos X permitieron obtener imágenes de partes interiores del cuerpo
humano antes inaccesibles sin mediar cirugía. A partir de ese momento se convirtieron en
imprescindibles medios de diagnóstico, formando parte esencial del campo denominado
electromedicina.
Su uso principal en diagnóstico médico, por ser las más fáciles de visualizar, fue la
observación de las estructuras óseas. A partir de la generalización de esta práctica se
desarrolló la radiología como especialidad médica que emplea la radiografía como medio
de diagnóstico, que sigue siendo el uso más extendido de los rayos X. En desarrollos
posteriores se añadieron la tomografía axial computarizada (TAC, en 1967, por un equipo
dirigido por los ingenieros Godfrey Newbold Hounsfield y Allan M. Cormack, premios
Nobel de Medicina en 1979), la resonancia magnética (descubierta como principio en 1938
y aplicada a la imagen de diagnóstico por Paul Lauterbur y Peter Mansfield, premios Nóbel
de 2003) y la angiografía (utilizada desde 1927 por el portugués Egas Moniz, ganador del
premio Nobel en 1949, y desarrollada de forma más segura por la técnica Seldinger desde
1953); así como la utilización terapéutica de la radioterapia.
Los ultrasonidos fueron utilizados por primera vez en medicina por el estadounidense
George Ludwig, a finales de los años 1940, mientras que la ecografía fue desarrollada en
Suecia por los cardiólogos Inge Edler y Carl Hellmuth Hertz (hijo y sobrino nieto de los
famosos físicos), y en el Reino Unido por Ian Donald y el equipo de ginecología del
hospital de Glasgow.
Se aplican otras tecnologías electromédicas en la cardiología, tanto en diagnóstico
(electrocardiograma, utilizado desde 1911, que valió el premio Nobel de 1924 a Augustus
Waller) como en tratamientos (desfibrilador) y prótesis: (los marcapasos y el corazón
artificial). También en áreas como los problemas de audición (mediante los audífonos) o el
diagnóstico y tratamiento de problemas neurológicos y neurofisiológicos.
Se han equipado los quirófanos y unidades de rehabilitación y cuidados intensivos (UVI) o
(UCI) con equipos electrónicos e informáticos de alta tecnología. Se han mejorado los
equipamientos que realizan análisis clínicos y se han desarrollado microscopios
electrónicos de gran resolución.
Véase también: resonancia magnética, electroterapia, neurología y rayos X
Satélite de comunicaciones
1969 El auge de las telecomunicaciones empieza cuando se sitúan en el espacio exterior los
primeros satélites de comunicaciones, satélites artificiales situados en órbita alrededor de la
Tierra que transmiten ondas electromagnéticas; pero este punto culminante tuvo su
prehistoria: El término telecomunicación fue definido oficialmente por primera vez en 1932
durante una conferencia internacional que tuvo lugar en Madrid ("toda transmisión,
emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de
cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas
electromagnéticos").[88] La base matemática sobre la que se desarrollan las
telecomunicaciones dependientes de la electricidad es muy anterior: fue desarrollada por
Maxwell, quien ya predijo que era posible propagar ondas por el espacio libre utilizando
descargas eléctricas (prefacio de Treatise on Electricity and Magnetism, 1873), hecho que
corroboró Heinrich Hertz con el primer transmisor de radio generando radiofrecuencias
entre 31 MHz y 1.25 GHz (1887). No obstante, el inicio de la era de la comunicación rápida
a distancia ya había comenzado en la primera mitad del siglo XIX con el telégrafo eléctrico,
al que se añadieron más tarde el teléfono y la revolución de la comunicación inalámbrica
con las ondas de radio. A principios del siglo XX apareció el teletipo que, utilizando el
código Baudot, permitía enviar y recibir texto en algo parecido a una máquina de escribir.
En 1921 la wirephoto o telefoto permitió transmitir imágenes por teléfono (ya se había
hecho telegráficamente desde la Exposición Universal de Londres de 1851 y
comercialmente desde 1863), y a partir de entonces se comercializó el fax por AT&T. Esta
misma compañía norteamericana desarrolló desde 1958 distintos tipos de aparatos digitales
precedentes del módem para las comunicaciones telefónicas, que más tarde se aplicaron a la
transmisión de datos entre computadoras y otros dispositivos. En los años 1960 comienza a
ser utilizada la telecomunicación en el campo de la informática con el uso de satélites de
comunicación y las redes de conmutación de paquetes.
Un satélite actúa básicamente como un repetidor situado en el espacio: recibe las señales
enviadas desde la estación terrestre y las reemite a otro satélite o de vuelta a los receptores
terrestres. Los satélites son puestos en órbita mediante cohetes espaciales que los sitúan
circundando la Tierra a distancias relativamente cercanas fuera de la atmósfera. Las antenas
utilizadas preferentemente en las comunicaciones vía satélites son las antenas parabólicas,
cada vez más frecuentes en las terrazas y tejados de nuestras ciudades. Tienen forma de
parábola y la particularidad de que las señales que inciden sobre su superficie se reflejan e
inciden sobre el foco de la parábola, donde se encuentra el elemento receptor.
Con la puesta en marcha de los satélites de comunicaciones ha sido posible disponer de
muchos canales de televisión, el impresionante desarrollo de la telefonía móvil y de
Internet. Internet es un método de interconexión descentralizada de redes de computadoras
implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes
físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus
orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras,
conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU..
El siglo XXI está viviendo los comienzos de la interconexión total a la que convergen las
telecomunicaciones, a través de todo tipo de dispositivos cada vez más rápidos, más
compactos, más poderosos y multifuncionales. Ya no es necesario establecer enlaces físicos
entre dos puntos para transmitir la información de un punto a otro. Debido a la gran
velocidad de propagación de las ondas electromagnéticas, los mensajes enviados desde
cualquier punto de la superficie terrestre o de su atmósfera se reciben casi simultáneamente
en cualquier otro.
[editar] Bibliografía
• Varios autores (1984). Enciclopedia de Ciencia y Técnica. Tomo V
Electricidad. Salvat Editores S.A. ISBN 84-345-4490-3.
• Miguel Ángel Quintanilla y José Manuel Sánchez Ron (1998) Ciencia,
Tecnología y Sociedad, Madrid : Santillana, ISBN 84-294-4976-0
[editar] Referencias
1. ↑ Bullock, Theodore H. (2005), Electroreception, Springer, pp. 5–7, ISBN
0387231927
Morris, Simon C. (2003), Life's Solution: Inevitable Humans in a Lonely Universe,
Cambridge University Press, pp. 182–185, ISBN 0521827043
2. ↑ Frood, Arran (27 de febrero de 2003), Riddle of 'Baghdad's batteries',
BBC, http://news.bbc.co.uk/1/hi/sci/tech/2804257.stm, consultado el
2008-02-16
3. ↑ Frase muy citada, aquí glosada por Slavoj Žižek Lenin ciberespacial:
¿por qué no? International Socialism N° 95, 2002.
4. ↑ Marshall McLuhan (1964) Understanding Media, p.13; Reversal of the
Overheated Medium, pg. 36 [1]
5. ↑ El primer uso en inglés se debe a Sir Thomas Browne , en Pseudodoxia
Epidemica, 1646.
6. ↑ Biografía de William GilbertInglés [14-5-2008]
7. ↑ Biografía de Otto von Guericke (en inglés) [14-5-2008]
8. ↑ Quintanilla y Sánchez Ron, op. cit, especialmente Ilustración y
Revolución Industrial, pg. 26.
9. ↑ Biografía de Stephen Gray Inglés [15-4-2008]
10.↑ Biografía de Pieter van Musschenbroek Física.net [14-5-2008]
11.↑ Biografía de William Watson Inglés [14-5-2008]
12.↑ Biografía de Benjamin Franklin usembassy-mexico.gov.[14-5-2008]
13.↑ Biografía de Charles-Augustin de Coulomb.www.geocities.com [14-5-
2008]
14.↑ Biografía de Luigi Galvani Epónimos médicos. Historia de la medicina.
[14-5-2008]
a b
15.↑ Biografía de Alessandro Volta Astrocosmo Chile. [15-5-2008]
16.↑ a b Quintanilla y Sánchez Ron, op. cit., especialmente
Electromagnetismo y sociedad, pgs.38-46
17.↑ Biografía de Humpry Davy Inglés. Chemical heritage.org. [15-5-2008]
18.↑ Biografía de Hans Christian Ørsted Museo virtual de ciencia. csic.[15-5-
2008]
19.↑ Biografía de Thomas Johann Seebeck Fisicanet [15-5-2008]
20.↑ Biografía de André-Marie Ampére Astrocosmo Chile. [15-5-2008]
21.↑ Biografía de William Sturgeon Inglés. [15-5-2008]
22.↑ Biografía de Georg Simon Ohm Asifunciona.com [15-5-2008]
23.↑ Biografía de Joseph Henry Fisica.net [31-5-2008]
24.↑ Biografía de Johann Carl Friedrich Gauss (en nglés) [31-5-2008]
25.↑ Biografía de Michael Faraday Astrocosmo.cl. [15-5-2008]
26.↑ Biografía de Heinrich Friederich Lenz geocities.com [17-5-2008]
27.↑ Módulos termoeléctricos Peltier Monografías.com [15-5-2008]
28.↑ Biografía de Samuel Finley Breese Morse Bluesilver.rog [16-5-2008]
29.↑ Biografía de Ernst Werner von Siemens Biografíasy vidas.com [10-5-
2008]
30.↑ Biografía de Charles Wheatstone Buscabiografías.com [16-5-2008]
31.↑ Biografía de James Prescott Joule (en inglès) Geocities.com[16-5-2008]
32.↑ Biografía de Gustav Robert Kirchhoff física.net [17-5-2008]
33.↑ Biografía de William Thomson (Lord Kelvin) Biografías y vida.com [17-
5-2008]
34.↑ Biografía de Heinrich Daniel Ruhmkorff (en inglés) people.clarkson.edu
[19-5-2008]
35.↑ Biografía de León Foucault Biografica.info [17-5-2008]
36.↑ Biografía de Zenobe Gramme (en inglés), chem.ch [17-5-2008]
37.↑ Biografía de Johann Wilhelm Hittorf Biografíasyvidas.com [30-5-2008]
38.↑ Biografía de James Clerk Maxwell Astrocosmo.cl [17-5-2008]
39.↑ Entre el 1 de agosto y el 15 de noviembre y el segundo del 15 de
septiembre al 19 de octubre. (en francés) Exposition internationale
d'électricité
40.↑ Alejandro Graham Bell. Cabezas, José Antonio. Susaeta Ediciones
S.A Vidas Ilustres Barcelona, España ISBN 84-305-1109-1 pg,20. "El
Comité de Recompensas de la Exposición (Exposición Conmemorativa
del Primer Centenario de la Independencia Norteamericana) estudia
detenidamente el aparato, que ya había sido patentado por Bell en 1876
con el número 174.465."
41.↑ «Historia de la National Geographic Society ¿Qué es NG?» (en
español). Consultado el 2008-03-26. Martínez Domínguez
FernandoBiografía de Alexander Graham Bell geocities.com [17-5-2008]
42.↑ Biografía de Thomas Alva Edison asifunciona.com [23-5-2008]
43.↑ Ley de Hopkinsonmembers.fotunecity.es. Magnetismo [19-5-2008]
44.↑ Biografía de John Hopkinson (en inglés) [19-5-2008]
45.↑ Biografía de Heinrich Rudolf Hertz Histel.com [19-5-2008]
46.↑ Biografía de George Westinghouse biográfica info [4-6-2008]
47.↑ Gonzalo Ugidos Tesla, un genio tomado por loco, El Mundo, 25 de
mayo de 2008.
48.↑ Biografía de Nicola Tesla Microsiervos.com [18-5-2008]
49.↑ Biografía de Charles Proteus Steinmetz 100ciaquimica.net [19-5-2008]
50.↑ Biografía de Wilhelm Conrad Röntgen historiadelamedicina.org [20-5-
2008]
51.↑ Biografía de Michael Idvorsky Pupin Biografíasy vidas.com [21-5-2008]
52.↑ Biografía de Joseph John Thomson (en inglés) nobelprize.org [19-5-
2008]
53.↑ Historia del cine Ministerio de Educación y Ciencia España. [22-5-
2008]
54.↑ Biografía de Guglielmo Marconi histel.com [21-5-2008]
55.↑ Biografía de Peter Cooper Hewitt (en inglés) ringwoodmanor.com [20-
5-2008]
56.↑ Biografía de Gottlob Honold (en inglés) Breve historia de Bosch.
bosch.com [20-5-2008]
57.↑ Bryson, Bill (2003-05-06). A Short History of Nearly Everything.
Broadway Books. ISBN 0767908171.
58.↑ Quintanilla y Sánchez Ron, op. cit., especialmente Los antecedentes
de la "Gran Ciencia", pg 76.
59.↑ Biografía de Hendrik Antoon Lorentz astrocosmo.cl [20-5-2008]
60.↑ Biografía de Albert Einstein Astrocosmo.cl [22-5-2008]
61.↑ Biografía de Robert Andrews Millikan (en inglés) nobelprize.org [20-5-
2008]
62.↑ Biofrafía de Heike Kamerlingh Oanes (en inglés) nobelprize.org [20-5-
2008]
63.↑ Biografía de Vladimir Zwirykin Orellana.free.fr.[10-6-2008]
64.↑ Donna HalperBiografía de Edwin Howard Armstrong olradio.com[21-5-
2008]
65.↑ Bill Penley (2002):Early Radar History - an Introduction.
66.↑ Albert Abramson, The History of Television, 1942 to 2000, Jefferson,
NC, and London, McFarland, 2003, ISBN 0786412208; Albert Abramson:
"Zworykin, Pioneer of Television", University of Illinois Press, Champaign,
1995; Biblioteca Luis Arango.
67.↑ Historia de la computción sipan.inictel.gob.pe [30-5-2008]
68.↑ Rolón González, Oscarh[ttp://www.monografias.com/trabajos46/la-
informatica/la-informatica3.shtml EDVAC Artículo técnico]
Monografías.com [31-5-2008]
69.↑ Biografía de Walter Houser Brattain (en inglés).nobelprize.org [21-5-
2008]
70.↑ González Gómez, JuanCircuitos y sistemas digitales Universidad
Pontificia de Salamanca Madrid. [24-5-2008]
71.↑ Martinez Domínguez. FernandoBiografía de Jonh Bardeen Historia de la
electricidad. [21-5-2008]
72.↑ «On This Day: 17 October». BBC News. Consultado el 2006-11-09.
73.↑ IAEA (2007). ENERGY, ELECTRICITY AND NUCLEAR POWER:
DEVELOPMENTS AND PROJECTIONS — 25 YEARS PAST AND FUTURE.
IAEA. ISBN 978-92-0-107407-2. (en inglés)
74.↑ Lester Allan Pelton - Water Turbines and the Beginnings of
Hydroelectricity inventors,about.com [5-6-2008]
75.↑ Rafael Alejo García-Mauricio Centrales hidroeléctricas.thales.coca.es
[5-6-2008]
76.↑ Godalming - Electricity Transcripción de documentos del museo de
Goldaming. [5-6-2008]
77.↑ Historia de la electricidad. Pioneros en acenor.cl [5-6-2008]
78.↑ Edison's Power Plant lowermanhattan,info [5-6-2008]
79.↑ Historia de la tecnología fotovoltaica ceit.es [5-6-2008]
80.↑ Pilas de combustible de hidrógeno Artículo técnico fecyt.es [30-5-
2008]
81.↑ Información general sobre autómatas programables Automátas.org
[30-5-2008]
82.↑ National Inventors Hall of Fame Foundation (2007), John T. Parsons (en
inglés), en invent.org. [19-4-2008]
83.↑ Biografía de Isaac Asimov biografíasyvidas.com [30-5-2008]
84.↑ Pérez Cordero, Víctor HugoLa robótica Geocities.com [26-5-2008]
85.↑ Alboites, VicenteArtículo técnico sobre el LASER omega.ilce.edu.mex
[30-5-2008]
86.↑ Biografía de Charles hard Townes Inglés nobelprize.org[22-5-2008]
87.↑ Historia de la tracción eléctrica gitel unizar.es [1-6-2008]
88.↑ Reunión conjunta en Madrid de la XIII Conferencia de la UTI (Unión
Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica
Internacional) que a partir de entonces se fusionario en la Unión
Internacional de Telecomunicaciones (ITU), 3 de septiembre de 1932.
Vistas
• Artículo
• Discusión
• Editar
• Historial
Herramientas personales
• Probar Beta
• Registrarse/Entrar
Buscar
Principio del formulario
Ir Buscar
• Català
• English
• فارسی
• Suomi
• Français
• Italiano
• Português
• Svenska
• தமிழ்
• Esta página fue modificada por última vez el 12:39, 27 ene 2010.
• El texto está disponible bajo la Licencia Creative Commons
Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas
adicionales. Lee los términos de uso para más información.
• Política de privacidad
• Acerca de Wikipedia
• Descargo de responsabilidad
La diferencia del circuito eléctrico con un circuito electrónico, radica en que en éste se
ejerce un control sobre el flujo de la corriente de alguna manera.
Hasta aquí no se ha dicho nada nuevo, pues basta poner un apagador o interruptor, para dejar
pasar o no la corriente por un bombillo o foco. (de ésta manera estaríamos "controlando" flujo
de corriente que atraviesa el bombillo)
La diferencia más importante radica en el "como" se logra controlar este flujo de corriente. Un
circuito electrónico es aquel, donde se controla un flujo de corriente eléctrica mediante otra
señal eléctrica, pudiendo ser ésta otro flujo de corriente eléctrica o una voltaje fijo.
En otras palabras: En un circuito electrónico...
La electricidad es capaz de controlar electricidad.
Históricamente la era electrónica se inicia con el tubo Audion. Este dispositivo controlaba el flujo
de un rayo de electrones, que viajaba en el vacío, entre dos electrodos (estructuras metálicas
dentro del tubo entre las cuales había una diferencia de voltaje).
En el año 1948 se inventó el transistor. Un pequeño dispositivo por todos conocido, con efectos
muy parecidos a los del tubo Audion, pero de dimensiones mucho más pequeñas. El transistor
controla el flujo de los electrones a través de un material semiconductor en vez de hacerlo en el
vacío. A este tipo de electrónica también de le llama Electrónica de estado sólido.
Un transistor controla el flujo de la corriente por medio de corriente o voltaje, en cambio un tubo
al vacío, controla el flujo de la corriente por medio solamente de voltaje.
Electrónica y electricidad
¿Cuál es la diferencia?, Te lo preguntaste alguna vez?, he aquí la respuesta:
Electrónica: Utiliza los fenómenos eléctricos para trasladar información audible,
visual, etc., esta se canaliza a través de una corriente eléctrica a base de cambios en
sus características los cuales se codifican, estos pueden ser amperaje, voltaje,
frecuencia, fase, etc. Cuando el amperaje o el voltaje se alteran de forma controlada
para conducir en forma codificada cierta información reciben el nombre de señales.
Electricidad : Esta aprovecha los fenómenos eléctricos para obtener energía o
potencia con las cuales podemos "mover" cualquier aparato eléctrico.
Les agradeceria que toda consulta se haga a través del foro, ya que en ocasiones me
es imposible atenderlas con prontitud, y en el foro, alguien puede hacerlo antes que
yo. De antemano, gracias.
Contenido
[ocultar]
• 1 Topologías típicas de redes de distribución
○ 1.1 Red radial o redes en antena
1.1.1 Ventajas
1.1.2 Desventajas
○ 1.2 Red en bucle abierto
1.2.1 Ventajas
1.2.2 Desventajas
○ 1.3 Red en anillo o en bucle cerrado
1.3.1 Ventajas
• 2 Criterios para diseño de redes de distribución
○ 2.1 Regulación
○ 2.2 Criterio económico
○ 2.3 Corrientes de cortocircuito
• 3 Sistema de protecciones
• 4 Equipos utilizados en redes de distribución
• 5 Requerimientos regulados para distribución en
algunos países
○ 5.1 Colombia
• 6 Notas
• 7 Véase también
Topologías típicas de redes de distribución [editar]
La topologia de una red de distribucion se refiere al esquema o arreglo de la distribucion,
esto es la forma en que se distribuye la energia por medio de la disposicion de los
segmentos de los circuitos de distribucion. En este sentido se enfoca a la forma como se
distribuye la energia a partir de la fuente de suministro.
Red radial o redes en antena [editar]
Se caracteriza por la alimentación por uno solo de sus extremos transmitiendo la energía en
forma radial a los receptores y el emisor.
Ventajas [editar]
resaltan su simplicidad y la facilidad que presentan para ser equipadas de protecciones
selectivas.
Desventajas [editar]
Su falta de garantía de servicio.
Estas desventajas pueden ser compensadas en la actualidad con los dispositivos modernos
de desconexión automática de la zona en falla llamados "Organos de Corte de Red" o la
utilización de los dispositivos llamados "Reconectadores" que desconectan y cierran la
zona en falla, procurando de esa manera despejar la zona en falla y volver el servicio sobre
la línea completa
Red en bucle abierto [editar]
Esto significa que cualquier punto de consumo, en esta estructura, puede ser alimentado por
dos posibles caminos eléctricos, dado que uno solo de estos dos caminos es efectivo, la
emergencia se realiza mediante esta posibilidad de bucle.
Ventajas [editar]
Todas las ventajas de la distribución en redes radiales y además la posibilidad de alimentar
alternativamente de una fuente u otra, con lo que ante situaciones de falta y utilizando los
OCR y Reconectadores, quedaría siempre fuera de servicio la zona en falta más pequeña
posible y el resto de la línea en servicio
Desventajas [editar]
si la estructura esta alejada del pararrayos la electricidad seria dirigida a las puntas de la
tierra lo cual afectaría a las estructuras cercanas
Red en anillo o en bucle cerrado [editar]
se caracteriza por tener dos de sus extremos alimentados, quedando estos puntos
intercalados en el anillo o bucle.
Ventajas [editar]
Como ventaja fundamental podemos citar su seguridad de servicio y facilidad de
mantenimiento
donde:
V1n es la tensión aguas arriba de la carga o transformador, es decir en el alimentador
La regulación dada por IEC es mayor que la normativa americana.
Criterio económico [editar]
Corrientes de cortocircuito [editar]
Las corrientes de cortocircuito para faltas fase a fase estarán limitadas únicamente por las
impedancias de la fuente, de la línea, y de la propia falta, así aque en la medida que la
fuente disponga de más potencia de cortocircuito circulará por la línea mayor corriente.
Las corrientes de cortocircuito fase a tierra, están limitadas por todas las razones anteriores
pero además por el sistema de puesta a tierra del neutro de la Red. Existen varias formas de
hacerlo. Aislado. Que producen las mínimas corrientes y máximas sobretensiones, quizá
recomendable para distribuciones no muy extensas y que la necesidad de continuar con la
línea en falta en servicio sea imperiosa. La detección de la falta de una forma selectiva tiene
cierta complicación. No obstante, se recomienda que se haga la transferencia a una línea
sana en el menor tiempo posible. Puesto directamente a tierra. Que producen las máximas
corrientes y mínimas sobretensiones, quizá recomendable para distribuciones extensas y
que puedan ser seccionadas mediante dispositivos semiautomáticos o automáticos. La
detección selectiva de la falta resulta fácil, con lo que unido al uso de dispositivos
automáticos "Reconectadores", se dejaría fuera de servicio la zona en falta.
Otras formas intermedias de tratamiento del neutro, "PaT resistivo", "PaT inductivo",
"Corriente muy limitada a unos pocos amperios" "Corriente menos limitada a unos cientos
de amperios", "Corriente muy limitada a unos pocos amperios y conectándola casi
directamente a tierra durante pequeño espacio de tiempo", etc.,etc. todos ellos se pueden
acercar más al sistema aislado o al sistema puesto a tierra y cada diseñador de la Red debe
sopesar detenidamente las desventajas y ventajas de cada sistema en su caso particular.
Hay que tener en cuenta que la correcta elección es muy importante ya que pasados unos
años seá muy difícil reestructurar la Red para cambiar el sistema de puesta a tierra
Notas [editar]
1. ↑ El nuevo Reglamento Electrotécnico de Baja Tensión exige tensiones
de distribución en baja tensión de 230/400 V.
Vistas
• Artículo
• Discusión
• Editar
• Historial
Herramientas personales
• Probar Beta
• Registrarse/Entrar
Buscar
Principio del formulario
Ir Buscar
• English
• Esta página fue modificada por última vez el 08:16, 30 ene 2010.
• El texto está disponible bajo la Licencia Creative Commons
Reconocimiento Compartir Igual 3.0; podrían ser aplicables cláusulas
adicionales. Lee los términos de uso para más información.
• Política de privacidad
• Acerca de Wikipedia
• Descargo de responsabilidad