domingo, 5 de abril de 2015

LITOTRICIA

La litotricia extracorpórea con ondas de choque (LEOC) es un término registrado por la Dornier Company. El gobierno alemán promovió la colaboración entre esta compañía y el Instituto de Investigación Quirúrgica de la Universidad de Munich. El 20 de febrero de 1980 se llevo a cabo en Munich el primer procedimiento de litotricia con el instrumental HM-1. Ya en 1982 se había desarrollado con éxito el HM-2 y, en 1983, el modelo HM-3 no modificado que actualmente sigue siendo un litotritor ampliamente utilizado. En 1984 la FDA aprobó el uso del HM-3.






Principio físico de la LEOC 

El principio físico de la utilización de ondas de choque se basa en la ruptura mecánica de la superficie de un sólido cuando la fuerza tensional excede la fuerza de cohesión interna que mantiene el sólido como un solo cuerpo. Cuando se deposita energía con rapidez en un líquido siempre se produce una onda de choque, la cual divide el material proximal sin compromiso inicial del distal, que está sujeto a compresión como consecuencia de la entrada de energía. Cuando una sustancia sólida pasible de ruptura es sumergida en un medio líquido, las ondas de choque que atraviesan el liquido ejercen un efecto destructivo sobre el sólido a nivel de la interfase, gracias a una fuerza tensional de alta intensidad, desencadenada por compresión y deformación. La onda de choque bajo agua se genera por una descarga eléctrica a nivel de un generador de la onda. En el sistema electrohidráulico, la focalización se logró fijando el electrodo en el interior de un plato metálico semielipsoide, (F1). De ahí la energía converge en otro punto (F2) coincidente con la litiasis. La mayoría de los pacientes con cálculos renales simples (80% a 85%) pueden ser tratados exitosamente con litotricia extracorpórea.

Tipos de Generadores de Ondas de Choque 

Sistema Electrohidráulico Consiste en un sistema de generación de explosiones mediante una bujía de encendido inmersa en un medio líquido y alimentado por un generador de alto kilovoltaje. Por ejemplo, el generador Dornier® HM3 utiliza entre 12 y 24 kV. La onda que se genera es esférica y expansiva; para poder enfocarla, el electrodo se sitúa en el punto F1 de un elipsoide y el objetivo a nivel de F2 .
Precisa de monitoreo y coordinación electrocardiográfica para descargar sólo durante el periodo refractario del ciclo cardíaco después de la onda R, con el objetivo de evitar arritmias.
La ventaja de este generador es su eficacia para destruir litos. Las medidas del promedio de la zona focal son de 10 a 15 mm de lado, con alrededor de 13 cm de distancia focal. Una desventaja es el desgaste del electrodo, que en los equipos viejos es de rápida progresión. Cuando el electrodo se desgasta el desplazamiento de 1 mm de la posición en F1 puede desplazar el punto F2 en 1 cm aproximadamente; a una distancia de 2 cm, la presión efectiva equivale sólo a un 20% del centro del F2. La vida media de un electrodo de un equipo como el Litho Tron de reflector elipsoidal es de unos 3000 disparos, comparado con un equipo como el Sonolith de reflector elipsoidal, cuya vida media alcanza los 27000 disparos a unos 20 kV. 
Otra desventaja es la variación significativa en la presión entre choque y choque. La frecuencia de hematomas subcapsulares se acerca al 0.6% aproximadamente.

Sistema Electromagnético 

Producen ondas de choque planas o cilíndricas. Las planas se concentran en una lente acústica y las cilíndricas se reflejan en un reflector parabólico que las transforma en ondas esféricas.
Cuando se envía corriente eléctrica a través de un conductor se produce un campo magnético fuerte que desplaza una placa contra el agua y así genera una onda de choque. El frente de choque es una onda plana paralela a la placa. La energía de la onda se concentra sobre el objetivo mediante el enfoque con una lente acústica. Son más controlables y reproducibles que los electrohidráulicos; además, se puede lograr un punto focal pequeño con densidades de energía elevadas, lo que aumenta la efectividad. Asimismo, no requiere el recambio de electrodos por desgaste. 
Una desventaja es que, dada la alta potencia y pequeña región focal, aumenta la frecuencia de hematomas subcapsulares (3% a 3.7%).

Sistema Piezoeléctrico

Mediante un pulso de alta frecuencia y alto voltaje, se realiza la excitación de un elemento piezoeléctrico de cerámica. Estos dispositivos están colocados en un reflector cóncavo y las ondas convergen hacia el punto F2 o región focal, la cual mide cerca de 4 por 8 mm. Este sistema es muy bien tolerado, no requiriendo anestesia. Además, no induce arritmias cardíacas, pero tiene la desventaja de una potencia insuficiente para muchos cálculos por un volumen muy pequeño de F2.
Otros generadores no han tenido que no tuvieron aceptación. 

Sistemas de Visualización de Imágenes 

Se puede emplear radioscopia, ecografía, o la combinación de ambas. El sistema de fluoroscopia típico actual está formado por un sistema de imágenes por rayos X, en general digitalizado, montado sobre un arco en C. Se localiza la litiasis enfocando en plano frontal y en otro plano en 45º para lograr coordenadas adecuadas. 
Este método tiene ventajas evidentes, como la posibilidad de usar medios de contraste para ver detalles anatómicos o para distinguir litos radiolúcidos. Además permite visualizar litos en todo el árbol urinario. Las desventajas son la exposición a radiación, y la incapacidad de observar cálculos radiolúcidos sin contraste. Además, sólo localiza litos mayores de 4 a 5 mm, dependiendo por supuesto de la composición (pueden verse de 2 y 3 mm si son muy radioopacos). Asimismo, presenta dificultades en cuanto a las imágenes superpuestas de otros órganos.
Por otro lado, la ecografía localiza los cálculos radiolúcidos, y los pequeños de hasta 2 a 3 mm aproximadamente, o de hasta 3 a 4 mm en la unión pieloureteral. En otro orden, no emite radiación ionizante. Sin embargo, la localización del lito con ecografía requiere más entrenamiento y no se pueden visualizar cálculos mas allá de la unión pieloureteral. Luego, a partir del uréter intramural y submucoso y los vesicales vuelven a verse por ecografía. 
El sistema más ventajoso consiste en la combinación de ecografía con radioscopia. 


Anestesia

Las molestias durante la litotricia se relacionan con diversos factores, como la intensidad de la energía que atraviesa la piel o el tamaño del punto focal (por ejemplo, el sistema piezoeléctrico que tiene un punto focal muy pequeño no necesita anestesia en general). 
Un aspecto clave que se investigó recientemente es la relación con la costilla; cuando el cálculo está situado de tal manera que la onda de choque tiene alguna relación relevante con la costilla, la mayor parte de los pacientes presentan dolor importante.
Existen 2 técnicas básicas: la administración de hipnosedantes por vía parenteral (neuroleptoanalgesia) y los fármacos por vía tópica (EMLA).
El sistema parenteral utiliza drogas analgésicas como el fentanilo, en general asociado con sedantes como el midazolam. Se monitorea la ventilación y la oxigenación en forma permanente, en asociación con el monitoreo cardíaco. Si se va a aplicar anestesia local con EMLA, la misma debe indicarse unos 45 minutos antes. Es una mezcla de lidocaína y prilocaína que actúa sobre el factor del dolor a nivel de la piel. 
Los niños e individuos muy ansiosos son candidatos al uso de anestesia. Además la carga litiásica y la composición basada en elementos mas resistentes (cistina, oxalato de calcio monohidrato, fosfato de calcio dihidrato) también son factores a tener en cuenta. Otro elemento importante es la excursión respiratoria, más pausada, homogénea y controlada durante la anestesia, lo cual contribuye mucho a la eficacia de la litotricia. 

Comparación de Litotritores 

Hay pocos estudios comparativos entre equipos. Los pocos ensayos disponibles demuestran la alta eficacia del equipo electro hidráulico HM-3 no modificado con respecto al resto de los equipos más antiguos. Por otro lado, también se demostró la alta eficacia de los electromagnéticos, gracias a su punto focal más pequeño y al sistema de generación de ondas.

Mecanismos de Fragmentación de Cálculos 

La fragmentación se produce por fuerzas mecánicas que actúan en forma directa, así como por mecanismos indirectos por el colapso de las burbujas de cavitación.
 El primer mecanismo propuesto es por fractura en astillas: una vez que la onda penetra en el cálculo se refleja en sitios diversos, generando ondas tensionales. El sitio proximal del cálculo es más afectado por las ondas compresivas de acción, mientras que el sitio más distal es impactado tanto por ondas compresivas como por ondas tensionales. Las ondas tensionales deben superar las fuerzas de resistencia del cálculo, para inducir la nucleación y el crecimiento de microfracturas. Se supone igualmente que los cálculos renales, como otros materiales quebradizos, tienen mayor probabilidad de fracturarse por fuerzas de tensión que por fuerzas compresivas.
Un segundo mecanismo sería el de compresión circunferencial, debido a la diferencia de velocidad de las ondas entre el cálculo y el líquido circundante. La onda viaja más rápido en el cálculo que por fuera de él. Las ondas que pasan por fuera producen una fuerza circunferencial que crea tensión en los extremos proximal y distal del lito. 
Un tercer mecanismo son las fuerzas de cizallamiento u ondas transversales. A diferencia de las ondas de compresión, estas fuerzas desplazan las moléculas en sentido transversal a la onda, o sea, desplazando las moléculas lateralmente.
Otro mecanismo propuesto es la intensificación o superconcentración en el interior del cálculo por refracción o difracción de ondas en regiones con ángulos o de determinadas características geométricas y elásticas. 
Un quinto mecanismo es la cavitación: la presión negativa que sigue a la onda inicial produce crecimiento de burbujas en sitios de nucleación, por formación de gas libre bajo fuerzas de tensión. Estas burbujas crecen por incorporación de vapor de agua en forma rápida (milisegundos) y luego colapsan en forma brusca, liberando calor, energía sonora y energía cinética, creando así sitios de cavitación.
La fragmentación de los cálculos puede ser incrementada aumentando el kilovoltaje, la cantidad de disparos o ambos. Si se emplea un mayor kilovoltaje, los fragmentos resultantes serán más grandes que si se usa un voltaje menor. Muchas veces conviene utilizar potencias menores para reducir el tamaño de los fragmentos y evitar traumatismos.  


EJERCICIOS


  •  Determinar la energía de un fotón para: 
a. Ondas de radio de 1500 kH
  • b. Luz verde de 550 nm       
   c. Rayos X de 0,06 nm


(para todas, el medio de propagación es el vacío)
Solución: a) 9,9 ·10-28 J ; b) 3,6 ·10-19 J ; c) 3,3 ·10-15 J

  •  Una estación de radio emite con una λ = 25 m. Calcular:

a. υ de las OEM emitidas               b. Energía de los fotones   
c. Número de fotones emitidos por S si la potencia de la emisora es de 6 kW.

Solución: a) 1200 kHz ; b) 7,9 ·10-27 J ; c) 7,6 ·1029 fotones/s

  •  Un haz de luz de 400 nm incide sobre un fotocátodo de Ce, cuyo trabajo de extracción es de 1,8 eV. Calcular:

a. Energía máxima de los 3.- Un haz de luz de 400 nm incide sobre un fotocátodo de Ce, cuyo trabajo de extracción es de 1,8 eV. Calcular:

a. Energía máxima de los fotoelectrones.        b. Número de fotones emitidos por segundo y unidad de superficie para un haz de 10-3 W/m2.

(dato: velocidad de la luz en el vacío = c = 3·108 m/s )
Solución: a) 2,1 ·10-19 J ; b) 2·1015 fotones·s-1·m-2

  •  Una radiación de 1,5 μm incide sobre una superficie metálica y produce la emisión de fotoelectrones con una velocidad de 105 m s-1. Calcular:

a. Trabajo de extracción del metal       b. Frecuencia umbral de fotoemisión

(Datos: me = 9,1·10-31 kg)
Solución: a) 1,25 ·10-19 J ; b) 1,9·1014 Hz


  • Calcular la longitud de onda (λ) asociada a:

a. Un electrón acelerado por una ΔV = 100 V.         b. Un electrón de Ec = 1
c. Una bala de 10 g que se mueve a 500 m s-1          d. Un automóvil de 1000 kg con v = 100 m/s

Solución: a) 1,23·10-10 m; b) 1,23·10-9 m ; c) 1,32·10-34 m (insignificante); d) 6,62·10-39 m (insignificante)


  • Calcular la incertidumbre en la determinación de la posición en los siguientes casos:

a. Electrón cuya velocidad, de 7000 km/s, se ha medido con una incertidumbre del 0,003%
b. Partícula de 50 g que se desplaza a una velocidad de 300 m/s, medida con la misma incertidumbre que el caso anterior.

Solución: a) 2,8 · 10-7 m ; b) 1,2 · 10-31 m (despreciable)

  • Al iluminar una superficie metálica con una longitud de onda λ1 = 200 nm, el potencial de frenado de los fotoelectrones es de 2 V, mientras que si la longitud de onda es λ2 = 240 nm, el potencial de frenado se reduce a 1 V. Obtener:

a. Trabajo de extracción del metal      b. El valor que resulta para la cte de Planck, h, en esta experiencia.

(Datos: e = 1,6 · 10-19 C; c = 3 · 108 m/s )
Solución: a) 6,4·10-34 J·s ; b) 6,4·10-19 J

  •  Cuando chocan un electrón y un positrón en determinadas condiciones, la masa total de ambos se transforma en energía radiante en forma de dos fotones o cuantos de luz, de igual energía. Calcula:

a. La energía total producida, expresada en eV.       b. La frecuencia de la radiación producida.
c. La longitud de onda de la misma.

Datos: me = mp = 9,11 · 10–31 kg; e = 1,602 · 10–19 C; h = 6,62 · 10–34 J
Solución: a) E = 1,02 MeV ; b) f = 1,24·1020 Hz ; c) λ = 2,42·10-12 m


  • Los fotones de luz cuya frecuencia es la frecuencia umbral para un cierto metal tienen una energía de 2 eV. ¿Cuál es la energía cinética máxima, expresada en eV, de los electrones emitidos por ese metal cuando se ilumina con la luz cuyos fotones tienen 3 eV de energía?

Solución: 1 eV


  •  Sobre la superficie del potasio incide luz de 6 10–8 m de longitud de onda. Sabiendo que la longitud de onda umbral para el potasio es de 7,5 10–7 m. Calcula:

a. El trabajo de extracción de los electrones en el K.  b. La energía cinética máxima de los electrones emitidos.

Datos: h = 6,626 · 10–34 J s; c = 3 · 108 m s–1
Solución: a) We = 1,66 eV ; b) Ec = 19,1 eV.

PRINCIPIO DE INCERTIDUMBRE DE HEISEMBERG

Según la física clásica, el error en una medida se debe a la imprecisión del aparato de medida. Por tanto, un aparato clásico ideal podría determinar exactamente, por ejemplo, la posición y la velocidad del electrón en el experimento de la doble rendija. Heisemberg y Bohr pusieron en duda esta suposición.
La cuestión planteada era: ¿Hasta qué punto es posible determinar simultáneamente la posición y el momento lineal de un objeto cuántico, materia, como un electrón, o radiación, como un fotón?
En 1927, el físico Heisemberg dio la respuesta del enunciando su Principio de indeterminación o principio de incertidumbre, el cual nos proporciona uno límites para la información que podemos conocer de un objeto cuántico. Este principio tiene dos partes:
  • No es posible determinar simultáneamente el valor exacto de la posición x y del momento lineal p de un objeto cuántico. Los valores d las indeterminaciones cumplen:


Δx.Δp>h/4π 

          donde Δx es la indeterminación en la posición espacial y Δp la del momento lineal.
De esta relación vemos que un alto grado de precisión en el valor dela posición equivale a una gran indeterminación en la medida del momento lineal (y por tanto en la velocidad del objeto).
  • No es posible determinar simultáneamente el valor medido por la energía E de un objeto cuántico y el intervalo de tiempo necesario para efectuar la medida. Esto exige que se cumpla:

ΔE.Δt>h/4π

Así, este principio hace evidente la necesidad de que los sistemas cuánticos se expresen en términos de probabilidad.






HIPOTESIS DE DE BROGLIE

Hacía 1924, el físico francés Louis De Broglie postulo que era posible asignar una onda al movimiento de una partícula. Por su naturaleza, a estas ondas asignadas a las partículas se les dio el nombre de ondas de materia. 
Alas escalas normales de energía y momento, la longitud de De Broglie para una partícula es muy pequeña para ser observada, sin embargo, a escalas microscópicas, dicha longitud de onda si tiene efectos observables. Por ejemplo, para una partícula de masa 1 kg, moviéndose con una velocidad de 1 m/seg, la longitud de onda de De Broglie es del orden de 10^-35 m, muy pequeña para ser observada. Por otro lado, para un electrón moviéndose con la misma velocidad, la longitud de onda resultante es del orden de 10^-4 m.  Es decir, la longitud de De Broigle juega un papel no despreciable para un electrón, mientas que para los objetos y velocidades acostumbradas en la física clásica, el rol de la longitud de De Broglie es despreciable.
La comprobación del postulado de De Broglie se realizo a través del experimento de Davisson-Germer. La idea básica del experimento consiste en producir  con las ondas de materia un haz de electrones, diagramas de interferencia análogos a los productos con las ondas electromagnéticas. 
Considerando lo pequeño de la longitud de onda de De Broglie, se requiere una rejilla de difracción con dimensiones similares. Por eso escoge un sólido cristalino, donde la distancia entre los vértices señala los puntos de la red. Dirigiendo un haz de partículas hacía este sólido, se observa la aparición de un diagrama  de interferencia producido por las ondas de materia. Además, la longitud de onda medida con estos diagramas, coincide con la expresión teórica de De Broglie.



















EL EFECTO COMPTON

Un fenómeno de características especiales ocurre cuando un cristal se irradia con rayos X. En este caso, cuando la radiación atraviesa el cristal y se coloca una placa fotográfica, se nota un diagrama de difracción del cual se puede inferir la estructura del cristal. A este procedimiento, se le conoce como difracción de Bragg.
Hacía principios del siglo XX, cuando comenzaron a refinarse las técnicas de medición, se observó que junto al diagrama original aparece uno más débil que corresponde a un cambio en la longitud de onda original es dado por la expresión:
h/m.v (1-cosƛ)
A la cantidad h/mv se le conoce como longitud de onda de Compton y el ángulo ƛ se mide con respecto a la dirección original del haz de rayos X.
La explicación de este fenómeno tiene que hacer uso de la hipótesis de fotones de Einstein. Se supone que éstos se comportan como partículas que chocan con los electrones del material que ésta siendo irradiado. En este proceso de colisión los fotones se dispersan con direcciones diferentes, en forma análoga al choque de las bolas de billar, lo que provoca una desviación de los fotones en diferentes direcciones y por tanto un cambio en la longitud de onda.
Se tiene entonces en el desarrollo de la teoría cuántica una serie de fenómenos que podían entenderse como la discretización de ciertos procesos, por ejemplo los fotones. Sin embargo, el desarrollo paralelo de la física en otro tipo de fenómenos microscópicos, empezaba a mostrar a los científicos que estaban presenciando el surgimiento de otra perspectiva de los fenómenos naturales y no simplemente un aspecto más dela física clásica

HIPÓTESIS DE PLANCK

La teoría clásica, que consideraba que la radiación tenía carácter ondulatorio, suponía que la energía se emitía de forma continua, como corresponde a una onda. Sin embargo, hemos visto que esto no explicaba la radiación térmica.
Planck supone algo completamente diferente. Propone:
  • La energía no se emite de forma continua, sino discreta, es decir, "concentrada" en cuantos o paquetes de energía (algo muy similar a lo que ocurriría si se emitieran partículas).
  • La energía correspondiente a un cuanto depende de la frecuencia de vibración de los átomos del material y viene dada por la expresión:
E = h·v

    donde h= 6,63 · 10 ^ -34 J ·s  es la llamada constante de Planck.
    Por lo tanto, la energía emitida no puede tener cualquier valor. Sólo podrá emitirse un número entero de cuantos de energía. ET=n.h.v . Se dice entonces que la energía emitida está cuantizada.
    Teniendo en cuenta estas suposiciones, Planck obtiene la explicación teórica de toda la gráfica completa. Hubo que admitir, por lo tanto, que la emisión (y también la absorción, es decir, los intercambios de energía)  de radiación no es continua, sino que está cuantizada.
    (Una unidad que se usa para medir energías es el electronvoltio (eV). se define como la energía que adquiere un electrón al ser acelerado por una diferencia potencial de un voltio *1 eV = 1,6 · 10-19 J).





    EFECTO FOTOELECTRICO

    El efecto fotoeléctrico fue explicado por Albert Einstein que se trata de un comportamiento especial de los metales, que consiste en la emisión de electrones cuando se iluminan con luz de cierta frecuencia.
    El efecto fotoeléctrico puede explicarse clásicamente ateniéndose a un modelo ondulatorio de las ondas electromagnéticas: si se ilumina una placa metálica con luz de una frecuencia y cuando las ondas electromagnéticas "chocan" con un electrón del metal. se tiene que este comienza a oscilar absorbiendo la energía de las ondas. 
    Cuando la energía absorbida por el electrón es suficiente para escapar de la placa metálica, se obtiene el efecto fotoeléctrico. De acuerdo  este modelo clásico, como características del efecto fotoeléctrico, se tendrían:
    • El efecto es posible para todas las frecuencia de radiación.
    • La energía adquirida por los electrones en dicho efecto es proporcional a la intensidad del haz con el que se ilumina.
    Para comprobar estas predicciones se utilizo un dispositivo o fotocelda, en donde fuera posible llevar un registro  de los cambios de la corriente producida por el efecto fotoeléctrico, en función de la frecuencia de la radiación incidente. Los resultados obtenidos con dicho dispositivo, contradecían totalmente las predicciones clásicas. Es decir, mostraban que la energía de los electrones no era proporcional a ala intensidad de la luz y sobre todo, para cada material existe un  rango de frecuencias luminosas para las que solo es posible el efecto fotoeléctrico después de cierta frecuencia umbral. Dos características que, otra vez, desafiaban la teoría clásica de la radiación.
    Es en este punto donde surge la explicación de A. Einstein, que tiene como característica principal el uso de la hipótesis de Planck. Es decir, postulando que la radiación absorbida por los electrones tiene la forma E= h v, donde  h es de nuevo la constante de Planck  y v la frecuencia de radiación incidente sobre la placa.
    A esta energía elemental de radiación, se le dio el nombre de fotón, y se utiliza para referirse a cantidades elementales de radiación electromagnética. De acuerdo a esa explicación el efecto fotoeléctrico solo es posible si la frecuencia de la radiación incidente corresponde a la energía mínima que necesita el electrón para dejar el átomo. Además, este modelo explica por qué la independencia de la energía de los electrones de la intensidad de la luz; a más intensidad incidente en la placa, mayor cantidad de electrones son despegados  de ésta, sin embargo, la energía con la que salen depende sólo de la energía hv del fotón incidente y por tanto  para una frecuencia (v) fija, dicha energía es constante.

    La solución de Einstein implicaba que la llamada hipótesis de Planck, representaba, más que un postulado adicional, una característica esencial de los sistemas microscópicos en cuanto se refiere a los procesos de absorción y emisión de radiación. Es por eso que el efecto fotoeléctrico ocupa un lugar tan importante dentro de la historia de la teoría cuántica al reafirmar la naturaleza diferente de los fenómenos microscópicos con respecto al mundo macroscópico.
    Los electrones emitidos al iluminar el cátodo originan una corriente eléctrica de intensidad I al chocar con el ánodo. La intensidad medida es proporcional al número de electrones arrancados. El número de electrones que alcanzan el ánodo se mide por la corriente que circula por el amperímetro. El W necesario para arrancar el electrón del metal depende de su energía de enlace. La energía más pequeña recibe el nombre de trabajo de extracción Wo.
    Si el ánodo es positivo, atraerá a los electrones. Para un cierto ΔV =, todos los electrones emitidos llegaran al ánodo y conoceremos la intensidad I proporcional al número total de electrones.
    Si el ánodo es negativo, los electrones serán repelidos y solo llegaran al otro extremo aquellos que
    tengan una energía cinética inicial suficiente para vencer el potencial de repulsión. 



    sábado, 4 de abril de 2015

    LIMITACIONES DE LA FÍSICA CLÁSICA

    El desarrollo de la física cuántica es uno de los mas apasionantes y complejos en la historia de la ciencia moderna. Comienza con el descubrimiento de la radiactividad. Sigue con el trabajo de Max Planck alrededor de la llamada catástrofe ultravioleta. pasa por el desarrollo del arsenal nuclear y continúa en nuestra época con el desarrollo de tecnologías avanzadas  en microelectrónica, semiconductores, biología, medicina nuclear, etc., desarrollos que tienen todos en común el trabajar con sistemas microscópicos en escalas de energía muy pequeñas. Escalas en las que no solo las interacciones comunes como la gravedad y el electromagnetismo tienen efectos despreciables, sino que la forma clásica de analizar los fenómenos pierde sustento y se hace necesario volver a preguntarse por los conceptos de incertidumbre, casualidad y el proceso mismo de medición.
    Paradójicamente, los problemas que dieron origen a la física cuántica surgieron en las áreas mejor establecidas de la física clásica: electromagnetismo y la termodinámica. Son problemas que colocaban en conflicto las predicciones clásicas con las observaciones experimentales.
    La física cuántica ha surgido una cantidad de interpretaciones sobre sus fundamentos y sobre sus relaciones con la física pre cuántica clásica, sin  que se haya llegado a una interpretación definitiva. La mas generalizada y aceptada es la llamada interpretación de Copenhague o interpretación probabilista. Ésta reconoce en la física cuántica un elemento esencial de incertidumbre en los fenómenos que ella misma estudia, fenómenos en los que ya no es posible hablar de valor exacto de ninguna magnitud tal como energía, velocidad etc., sino del valor probable que dicha magnitud pueda tener. 
    Esta incertidumbre o indeterminación choca de una forma tan radical con los conceptos usuales de la teoría clásica, que incluso de los primeros forjadores de los principios cuánticos como Albert Einstein y Max Planck, entre otros opusieron gran resistencia a su implantación en la corriente dominante de la física.