Diferencia entre revisiones de «Física/Física moderna/Principio de incertidumbre de Heisenberg»

== Explicación cualitativa ==
 
En física clásica, consideramos que tenemos un sistema completamente caracterizado si conocemos las posiciones y el momento de todas sus partículas en un instante dado. Al analizar mentalmente un sistema que constara de un sólo electrón Heisemberg se encontró con que cuando tratamos de determinar la posición de este electrón con exactitud se necesitan fotones de alta frecuencia que modifican enormemente la velocidad de la partícula. Cuando tratamos de determinar el momento con exactitud necesitamos utilizar fotones de baja energía, que alteren mínimamente la velocidad de la partícula, pero estos fotones nos dan una visión demasiado "borrosa" de la posición. No existe un compromiso posible que nos permita medir con precisión ambas variables.
Podemos entender mejor este principio si pensamos en lo que sería la medida de la posición y velocidad de un electrón: para realizar la medida (para poder "ver" de algún modo el electrón) es necesario que un fotón de luz choque con el electrón, con lo cual está modificando su posición y velocidad; es decir, por el mismo hecho de realizar la medida, el experimentador modifica los datos de algún modo, introduciendo un error que es imposible de reducir a cero, por muy perfectos que sean nuestros instrumentos.
 
Podemos generalizar diciendo que cuando un sistema es lo suficientemente pequeño, no existen métodos físicamente posibles de observarlo sin alterar considerablemente su estado. Por ejemplo, si deseamos observar una partícula subatómica, tendremos que hacer incidir sobre ésta un fotón. Para que este fotón incida sobre el electrón deberá tener una longitud de onda máxima igual al diámetro del electrón, o en caso contrario no llegará a interaccionar con él. Sabemos que la energía de un fotón es inversamente proporcional a su longitud de onda, en concreto:
No obstante hay que recordar que el principio de incertidumbre es inherente al universo, no al experimento ni a la sensibilidad del instrumento de medida. Surge como necesidad al desarrollar la teoría cuántica y se corrobora experimentalmente. No perdamos de vista que lo dicho en el párrafo anterior es un símil pero no se puede tomar como explicación del principio de incertidumbre.
 
E = h c / λ
 
El Principio cuantifica la máxima precisión que podemos obtener de una observación: el error total en nuestra medida simultánea del estado de un sistema sera siempre como mínimo igual a la constante de Planck. Recordemos que esta constante, de manera muy significativa, resulta corresponder al cuanto mínimo de acción.
 
Parta comprender este principio es imprescindible que reflexionamos acerca del proceso que denominamos "observar" o "medir". En un experimento, cuando tratamos de extraer información de un sistema utilizamos un aparato de medida, que al entrar en contacto con el sistema observado, es alterado por éste. Debemos escoger nuestro aparato de medida de manera que esa alteración sea despreciable en comparación a la magnitud de lo que estamos midiendo. Por ejemplo, imaginemos que queremos medir la temperatura de un líquido caliente e introducimos en él un termómetro: el líquido cede parte de su calor al mercurio de nuestro termómetro. Esta cesión de calor ha disminuído en efecto la temperatura del líquido, pero siempre que haya una cantidad de líquido suficiente, el error en la medida será despreciable: la energía intercambiada con el aparato de medida es despreciable en comparación a la energía del sistema que deseamos medir. Cuanto más pequeño y livianos sea lo que queremos medir, necesitaremos aparatos más sutiles, que alteren mínimamente el sistema. Pero cuando queremos observar el mundo de las partículas subatómicas, nos encontramos con que no existen mecanismos tan sutiles que nos permitan observarlas sin modificarlas de manera significativa.
 
== Consecuencias del principio ==
26

ediciones