You are on page 1of 8

c c 

 c
 
   c    

 
!"#"#$#
%c&&#&#'&
()#&&* +#,
-.#'/)&/ 
0&&1",&

Una vez establecida por Maxwell la teoría unificada para todos los fenómenos
relacionados con la carga eléctrica, el Electromagnetismo, a finales del siglo pasado, podía
pensarse que la Física había llegado a un punto en el que todos los fenómenos tenían su
explicación dentro de las teorías establecidas en ese momento. Para los movimientos de masas, la
Mecánica de Newton (Mecánica Clásica) y para los fenómenos electromagnéticos, incluida la
Óptica, la teoría de Maxwell. Pero no tardarían en descubrirse fenómenos que no podían
explicarse a la luz de dichas teorías.

c    c. 2

Cuando la luz incide sobre un cuerpo, una parte es absorbida por él y otra parte, o bien se
refleja en la superficie o bien atraviesa el cuerpo. De como ocurra este proceso depende la
percepción que tengamos de él, por ejemplo el color. Un objeto blanco refleja casi toda la
radiación que recibe, mientras que uno negro absorbe casi toda la radiación.
Por otra parte, los cuerpos no sólo responden a la radiación que les llega, también ellos
emiten. Pero a temperaturas ordinarias la mayor parte de la energía que radian se emite en la
zona del infrarrojo o inferior (no visible). Para que un cuerpo emita luz visible es necesario
aumentar su temperatura por encima de 600 o 700 grados centígrados, decimos que se produce
incandescencia. Por ejemplo, el hierro se pone al rojo al aumentar su temperatura, si se aumenta
aún más se pone rojo vivo, y a temperaturas aún mayores se ve casi blanco. El mismo fenómeno
nos permite alumbrarnos con bombillas de incandescencia, en las que un filamento metálico emite
luz blanca al alcanzar temperaturas elevadas.
También el color de las estrellas (las mayores fuentes de radiación conocidas) es
indicativo de la temperatura en su superficie:

Enana marrón 1000 grados centígrados


Enana roja 2800 ´ ´
Gigante roja 4000
Amarilla 5500
Blanca 10000
Azul-blanca 16000
Azul 24000

Por tanto, la luz que procede de un cuerpo es la suma de la radiación propia del cuerpo más la que
refleja procedente de otros cuerpos. Si queremos estudiar únicamente la radiación propia, habrá
que aislar al cuerpo, o elegir un cuerpo que absorba toda la radiación que recibe, al que
llamaríamos  
Un cuerpo negro ideal es una cavidad de
paredes muy absorbentes, de manera que
cualquier radiación que entre quedará

absorbida, sólo saldrá la emitida por él.

Si se analiza la radiación emitida por un cuerpo negro a diferentes temperaturas, se obtiene una
gráfica como la de la figura:

En ella está representada la intensidad en función de la


longitud de onda para diferentes temperaturas. Como se
puede observar, al aumentar la temperatura, la longitud de
onda a la que corresponde mayor intensidad de la radiación
emitida es cada vez menor (a 4000 K el máximo de emisión es
0,7 m, y a 2000 K el máximo es a 1,5 m)

Hay una relación matemática que relaciona la longitud de onda


de máxima emisión max con la temperatura del cuerpo T (en
grados Kelvin)

_ ÷  r Ley del desplazamiento de Wien.

 
#3&#"#1#
Cuando se intentó obtener una ecuación que fuese
capaz de representar la curva experimental anterior, se
encontró que no era posible aplicando la teoría de la
radiación electromagnética de Maxwell.
Rayleigh obtuvo una expresión que era válida para la zona
de la curva que corresponde a las longitudes de onda más
largas, pero para longitudes de onda más cortas
(ultravioleta) no se ajustaba a la curva experimental (ver
la figura). A esta incapacidad de la Física Clásica para
explicar satisfactoriamente el fenómeno completo de la
radiación del cuerpo negro se le llamó catástrofe
ultravioleta.


c4#&&.5
En 1900 Max Planck dedujo una ecuación teórica que se ajustaba de manera satisfactoria
a la curva experimental de distribución espectral del cuerpo negro:

r  r O
 _     _â
_ 

O
Esta ecuación contiene dos constantes:
k que ya era conocida por teorías anteriores, constante de Boltzman, 1,38066 · 10-23 J K-1
h completamente nueva, sin significado en la teoría electromagnética clásica y cuyo valor es 6,63
· 10 -34 J·s.
La presencia de h (constante de Planck) es el resultado de una extraña hipótesis que Planck se vio
obligado a introducir en su razonamiento para poder llegar a una distribución coherente con la
experiencia. Planck postuló È ,&"
#'#'/&1&È'6#&#&#"'#
"; h era la constante de proporcionalidad.
Con otras palabras, el contenido energético de una carga en movimiento armónico simple de
frecuencia f, sólo puede ser múltiplo de la magnitud h·f. La energía que forma la radiación
electromagnética corresponde a las vibraciones de las cargas de los átomos, por eso la radiación
electromagnética sigue el postulado de Planck. La energía transportada por una radiación está
cuantizada, el valor mínimo posible es h·f y se le llama cuanto de energía o fotón, la energía
transportada por una radiación será un número entero de cuantos o fotones.
Al principio no se le dio mucha importancia a la hipótesis, sólo era una necesidad matemática,
pero después Einstein la utilizó para explicar el efecto fotoeléctrico y Bohr para explicar los
espectros discontinuos de los átomos, siendo el origen de todo lo que hoy conocemos como Física
Cuántica.
La hipótesis de Planck rompe con la teoría electromagnética clásica ya que supone que la energía
de una onda electromagnética no puede ser cualquiera, es como si la energía se transmitiera en
pequeños paquetes que son los cuantos, de manera que una radiación transporta la energía
correspondiente a un número entero de cuantos.
Un ejemplo:

Tipo de onda Longitud de onda E = h·f E en eV


Onda de radio 100 m 1,99 10 -27 J 1,2 10 -8
Infrarrojo 10 -5 m 1,99 10 -20 J 0,12
Naranja 6 10 -7 m 3,32 10 -19 J 2,1
Ultravioleta 5 10 -8 m 3,98 10 -18 J 25
Rayos x 10 -10 m 1,99 10 -15 J 12431

!c  c7  

Descubierto por Hertz en 1887 cuando estudiaba la producción y propagación de ondas


electromagnéticas. Consiste en la emisión de electrones por una lámina metálica iluminada con luz
(visible o ultravioleta). El primer estudio en profundidad del efecto fotoeléctrico se debe a
Philipp Lenard en los primeros años del siglo XX.
El diseño experimental es el que puede verse en la
figura. Si los electrones arrancados del cátodo (-)
llegan al ánodo (+), se registra una corriente en el
circuito exterior.
Variando la diferencia de potencial entre las placas
se puede modificar el número de electrones que
alcanzan el ánodo. Si el potencial tiene el signo
adecuado, todos los electrones llegan al ánodo, ya
que son empujados hacia él. Si el signo es el
contrario, los electrones son frenados, y sólo
alcanzarán el ánodo aquellos cuya energía cinética 
sea igual o mayor que el producto de la carga e por la diferencia de potencial. Así se puede medir
la energía cinética máxima de los electrones emitidos. Basta ir cambiando la diferencia de
potencial entre las placas hasta conseguir que la corriente cese, en este momento:
 R ð     
Siendo V0 el denominado potencial de detención.
La teoría electromagnética clásica interpreta el hecho suponiendo que la OEM suministraenergía
de forma continua hasta que el electrón tenga la suficiente como para escapar del átomo. Pero
los hechos conocidos sobre el efecto fotoeléctrico eran:
- El que se produzca emisión o no se produzca no depende de la intensidad luminosa y sí de la
frecuencia de la radiación incidente.
- La frecuencia de la luz a partir de la cual se produce emisión de electrones depende del metal
con el que esté hecha la placa.
- El número de electrones emitidos depende de la intensidad de la radiación incidente.
- La energía cinética de los electrones emitidos no depende de la intensidad luminosa, pero si de
la frecuencia de la radiación incidente.
- El tiempo que transcurre desde la llegada de la luz hasta la emisión de los electrones es muy
pequeño, 10-9 segundos.

c##&#89:-;
La energía se emite en pequeños paquetes o cuantos cuyo valor depende de la frecuencia
de vibración. Cuando la luz interacciona con la materia, la energía se transfiere en forma de
cuantos, como pequeños átomos de energía. Con esta naturaleza cuántica de la radiación es fácil
explicar el efecto fotoeléctrico:
La energía necesaria para arrancar un electrón se llama"#/<#
=# y es característica del metal. Cuando la radiación interacciona con el metal se
producen choques entre fotones y electrones, habiendo emisión de electrones si el fotón tiene
energía suficiente para arrancar al electrón, es decir si:
 § 
que también puede escribirse sustituyendo el trabajo de extracción por la energía de la radiación
cuya frecuencia es la  '/  (aquella para la que empieza a producirse el efecto
fotoeléctrico en un metal determinado):
 §   siendo f0 la frecuencia umbral
La intensidad de la radiación no tiene nada que ver con el hecho de que se produzca o no
emisión de electrones. Si la frecuencia es adecuada, entonces el número de electrones emitidos
si dependerá de la intensidad de la radiación incidente.
La energía del fotón incidente se emplea en arrancar el electrón (potencial de extracción)
y el resto se transfiere como energía cinética del electrón emitido.
    Õ O
r
r
El proceso es instantáneo porque se produce de forma similar a un choque entre partículas.

< El trabajo de extracción del níquel es 5,01 eV.


a) Con qué radiación habría que iluminar al níquel para observar efecto fotoeléctrico?
b) Si se ilumina con radiación ultravioleta de 10-7m ¿Cuál sería la energía cinética de los
electrones emitidos?
c) Si queremos detener los electrones emitidos ¿Cuál será la diferencia de potencial que habrá
que aplicar? (Potencial de detención)

La comprobación experimental de la teoría de Einstein pasaba por comprobar la expresión


según la cual la energía cinética de los electrones emitidos (medida por el potencial de detección)
es igual a la diferencia entre la energía del fotón incidente y el trabajo de extracción:

    
El experimento ofrecía además la posibilidad, en el
caso de ser cierta la explicación, de medir
directamente el valor de la constante de Planck.
Millikan realizó el experimento quince años después
de la teoría de Einstein, confirmando plenamente
dicha teoría. Einstein recibió el premio Nobel en
1921.
En la gráfica siguiente puede verse la
representación del potencial de detención V0 en
función de la frecuencia de la radiación incidente.
La pendiente es la constante de Planck.



%c.  

Hacia 1800 Dalton propone su teoría atómica de la materia, según la cual los átomos son
esferas homogéneas, sin estructura interna, siendo iguales los de un mismo elemento y distintos
(en masa) los de elementos distintos. Dicha teoría explicaba leyes de las reacciones químicas
como la conservación de la masa o las proporciones constantes.
En 1897 Thomson, en experiencias con tubos de descarga con gases a muy baja presión
(tubo de rayos catódicos) descubre unas partículas (los propios rayos catódicos) a las que somete
a varias experiencias con campos eléctricos y magnéticos, llegando a la conclusión de que tienen
carga negativa y son comunes a toda la materia. Por lo tanto deben ser partículas subatómicas.
Midió la relación entre su carga y su masa:
  
O  O OO
 â
A partir de estos descubrimientos, Thomson imagina al átomo como una esfera con carga positiva
y partículas con carga negativa (electrones) distribuidos por dicha esfera para compensar su
carga positiva.
En 1911, Rutherford lleva a cabo una serie de experiencias bombardeando láminas
delgadas de metales con radiación alfa (partículas relativamente pesadas y con carga positiva),
llegando a la conclusión de que el átomo debe estar prácticamente hueco, sólo el núcleo, muy
pequeño, contiene casi toda la masa y la carga positiva del átomo. Alrededor del núcleo, y muy
alejados se encontrarían los electrones girando en órbitas que, en principio, podrían estar a
cualquier distancia.
Pronto se encontraron varias dificultades a este modelo atómico. En primer lugar, se sabía que
una carga que se mueva con aceleración (como los electrones girando alrededor del núcleo) según
la teoría de Maxwell, debe emitir radiación electromagnética, perdiendo energía. Un átomo no
sería un sistema estable.
Por otro lado, ya se estaban estudiando los espectros de algunos átomos, y todos tenían algo en
común, eran discontinuos. Un átomo como el de Rutherford no tendría por qué dar lugar a
espectros discontinuos, ya que si todas las órbitas son posibles para el electrón, éste podría caer
desde una distancia cualquiera a otra distancia cualquiera, emitiendo (o absorbiendo) energía en
forma de radiación de todas las frecuencias posibles (espectro continuo).



c&&#&&#&

Los gases a baja presión emiten luz cuando se eleva suficientemente su temperatura o se
les somete a diferencias de potencial elevadas en tubos de gases. La luz emitida está formada
por una serie de frecuencias que depende del gas que hay en el tubo y es característica de cada
elemento.
Los espectros están formados por rayas, cada raya corresponde a una frecuencia o color. El
primero en estudiarse, por ser el más simple, fue el del Hidrógeno, que contiene una serie de
rayas en la zona del visible como puede verse en la figura:



'*43#') 

Si el átomo fuese como pensó Rutherford, los espectros serían continuos. Los electrones
podrían absorber cualquier energía (frecuencia) y emitir cualquier energía (frecuencia), ya que
podrían subir o bajar de cualquier órbita a cualquier órbita.
Si los espectros son discontinuos, debe ser porque no todas las órbitas son permitidas a los
electrones.
Bohr en 1913 modifica el modelo de Rutherford introduciendo una serie de postulados
cuya justificación estaba en las nuevas teorías cuánticas de Planck y Einstein:
- En ciertas órbitas permitidas el electrón se mueve sin radiar energía (órbitas estacionarias). La
radiación se produce al cambiar el electrón de órbita, emitiendo en forma de radiación la
diferencia de energía que haya entre las órbitas:
  
—
- Las órbitas estacionarias cumplen la condición siguiente:  
r
Por tanto las órbitas del electrón están cuantizadas que es lo mismo que decir que los niveles de
energía del electrón en el átomo están cuantizados. Cada órbita es un nivel de energía del
electrón, y sólo son posibles algunos. La energía correspondiente al electrón en cada nivel
permitido (cinética y potencial) se obtiene fácilmente:
 r r

r  r O
  r
r —
Cuando el electrón salta entre dos niveles permitidos, la diferencia de energía entre ellos se
emite como radiación cuyo fotón tendrá la energía correspondiente, siendo la frecuencia:

r  O r÷ r r  r  O O 
     r  r 
   —O —r 

O r÷ r r  r  O O
o bien con la longitud de onda:    r  r 
_   —O —r 
Expresión que se conocía experimentalmente para las rayas del espectro del Hidrógeno.
Por lo tanto el modelo de Bohr fue un éxito al explicar la discontinuidad de los espectros,
la estabilidad del átomo y el espectro del átomo de Hidrógeno.
(c  c   +.  c ). *2c

El efecto fotoeléctrico, la radiación del cuerpo negro y otros hechos habían hecho pensar que al
radiación electromagnética podría estar formada por ´partículasµ o fotones, a estos fotones les
corresponde una energía que es proporcional a su frecuencia. Según la equivalencia masa-energía
de Einstein, estos fotones deben tener un momento lineal o cantidad de movimiento:

 r  
         
   _  
_
¿Qué pasa con la teoría electromagnética de la luz? La teoría de Maxwell explica
perfectamente fenómenos como la interferencia, la difracción, etc. que no pueden explicarse con
una teoría corpuscular de la luz.
Estamos ante un dilema, algunos fenómenos indican que la luz es una onda y otros experimentos
sugieren que se comporta como un chorro de partículas. A este hecho se le conoce como
naturaleza dual de la luz.
Para aclarar esta situación, Bohr enunció el Principio de Complementariedad, según el cual un
experimento físico debe explicarse utilizando la teoría corpuscular o la ondulatoria, pero no
ambas. Sin embargo, ambos aspectos, el corpuscular y el ondulatorio, son necesarios para
entender la naturaleza de la luz; son dos aspectos que se complementan uno al otro. La propia
ecuación E = h f integra en sí misma las propiedades corpuscular y ondulatoria de la luz, E es la
energía del fotón considerado como partícula y f es la frecuencia de la onda asociada.

)#&&* 
En 1923, Louis De Broglie amplió la idea de la dualidad onda -partícula. Si la luz se puede
comportar como onda y como partícula, también es posible que aquello que se ha considerado
partícula siempre (electrones, protones, átomos, cuerpos macroscópicos) pueda tener
comportamiento ondulatorio. Se trata de generalizar la idea de que toda partícula tiene una onda
asociada y viceversa. De esta forma, una partícula que se mueva a velocidad v tendrá asociada
una onda cuya longitud de onda vendrá dada por:
  
 _ 
_  
La longitud de la onda asociada a objetos ordinarios que se mueven a velocidades ordinarias
resultan ser demasiado pequeñas para ser detectadas y medidas. La razón de esto es que para
poner de manifiesto una onda debe interaccionar (reflexión, refracción, difracción) con algo
material. Por ejemplo, para que se produzca difracción es necesario que la onda se encuentre en
su camino con obstáculos o rendijas de tamaño igual o inferior a su longitud de onda y no hay
objetos o rendijas tan pequeños como para poder poner de manifiesto la existencia de las ondas
asociadas a objetos ordinarios.
Sin embargo, para partículas mucho más pequeñas, como el electrón, la longitud de onda de De
Broglie es del orden del Angstrom y esta onda si puede detectarse porque los átomos, moléculas
o iones o las distancias entre ellos son de este mismo orden. En 1927 Davisson comprobó la
naturaleza ondulatoria de los electrones al medir la longitud de onda asociada a ellos mediante
difracción, dando por válida la hipótesis de De Broglie. Esto fue el comienzo de una técnica para
construir instrumentos para visualizar objetos demasiado pequeños, que no pueden verse con luz
por más que utilicen microscopios ópticos de gran aumento, dada la propia limitación de la luz
cuya longitud de onda es del orden de 4000 Angstrom. Con los microscopios electrónicos pueden
formarse imágenes de objetos que no podrían verse con luz visible.
Ejercicio: ¿Con qué diferencia de potencial habrá que acelerar electrones para un microscopio
electrónico que tengan una longitud de onda de 0,5 Angstrom?

-. .    ) *2


Las nuevas teorías que empezaron a surgir a principios del siglo XX (dualidad onda-
partícula, cuantización de la energía, relatividad) han cambiado radicalmente la concepción del
mundo físico.
Un cambio muy importante se recoge en el#')&/ . Se
refiere a la imposibilidad de conocer simultáneamente y con exactitud los valores de dos
magnitudes conjugadas de una partícula-onda. Magnitudes conjugadas son aquellas cuyo producto
tiene unidades de energía por tiempo, es decir las unidades de h.
Por ejemplo, son magnitudes conjugadas p (cantidad de movimiento) y x (posición), también la
energía y el tiempo.
El principio dice que el producto de las imprecisiones que se cometen al conocer la cantidad de
movimiento y la posición de una partícula-onda es como mínimo h/2÷.

  O

El valor de h/2÷ es pequeño, a nivel macroscópico no tiene ninguna implicación importante, pero,
por pequeño que sea se trata de una limitación. No se trata de una limitación debida a los
aparatos de medida, se trata de una consecuencia de la naturaleza ondulatoria de las partículas,
ya que una onda implica una cierta deslocalización, y de la necesidad de interacción entre el
observador y lo observado.
Las consecuencias de este principio tienen importancia a nivel ´microscópicoµ, puesto que en el
mundo macroscópico (cuerpos ordinarios a velocidades normales) el error h/2÷ es insignificante
frente a los errores o indeterminación de los aparatos de medida.
Sin embargo para partículas mucho más pequeñas, como el electrón, conocer con mucha precisión
la velocidad de la partícula (o su cantidad de movimiento) implicaría conocer con muy poca
precisión su posición.

0   c  >   


La Mecánica Clásica, era una ciencia determinista. Conociendo las condiciones iniciales de
un cuerpo o sistema y las fuerzas que actúan sobre él, se puede conocer con exactitud la
situación (posición, velocidad) en otro instante.
Cuando se intentó aplicar esta Mecánica a un sistema microscópico como el átomo, se observó que
era inadecuada, sus predicciones no concordaban con la experiencia (el modelo de Rutherford es
insuficiente). El átomo como sistema no podía ser interpretado con la Mecánica Clásica), no es
algo tan simple como un núcleo y unos electrones (partículas) girando alrededor a distancias que
podamos llegar a determinar y con velocidades que podamos conocer.
El cambio que introduce la Mecánica Cuántica es, sobre todo, cambiar la visión
determinista de la Física Clásica (conociendo la situación inicial y aplicando las leyes de la
Dinámica podemos conocer la situación en otro momento) por una visión basada en la probabilidad.
En el caso del átomo se abandonó la idea de órbitas para el electrón (modelo de Bohr) y se
introdujo la idea de orbital. Un orbital es una zona alrededor del núcleo donde la probabilidad de
que esté el electrón es elevada, pero en esta región no podemos saber la posición de electrón con
exactitud. Este modelo atómico de la Física Cuántica es un modelo probabilístico frente al
modelo determinista de la Física Clásica (modelo de órbitas)
Pero el hecho de que la Física Clásica no sea válida para sistemas microscópicos como los átomos
o los electrones, no quiere decir que no se útil. Las teorías de la Física Cuántica aplicadas a
sistemas macroscópicos conducen a los mismos resultados que la Física Clásica.

You might also like