martes, 18 de octubre de 2011


wet_re10.gif (126115 bytes)
El modelo estándar de la física de partículas describe la interacción electromagnética y la interacción débil como dos diferentes aspectos de una única interacción electrodébil, la teoría que fue desarrollada en 1968 por Sheldon Lee Glashow, Abdus Salam y Steven Weinberg (los bosones W y Z). Ellos ganaron el Nobel de Física de 1979 por este trabajo.
Acorde a la teoría electrodébil, a muy altas energías, el universo tiene cuatro idénticos bosones de gauge sin masa similares al fotón y a un campo de Higgs escalar. Sin embargo, a bajas energías, la simetría de un campo de Higgs tiene una ruptura espontánea de simetría electrodébil por el mecanismo de Higgs. El rompimiento de la simetría produce tres bosones de Goldstone sin masa que son "comidos" por tres de los fotones, como campos, dándoles su masa. Estos tres campos se convierten en bosones W y Z de la interacción débil, mientras que la cuarta permanece sin masa y es un fotón del electromagnetismo.
Aunque esta teoría tiene un número de predicciones impresionantes, incluyendo una predicción de la masa de un bosón Z antes de su descubrimiento, el bosón de Higgs por sí mismo nunca ha sido observado. Producir un bosón de Higgs será el mayor logro del LHC que se construye en el CERN, o bien demostrar su inexistencia y necesidad de nuevas leyes físicas.
El modelo electrodébil es una teoría física que unifica la interacción débil y el electromagnetismo, dos de las cuatro fuerzas fundamentales de la naturaleza. A su vez, este modelo se halla incluido en la Teoría de Gran Unificación (GUT), que une la interacción electrodébil con la interacción nuclear fuerte.
POSTULADOS:
El poder del argumento de Einstein está en la manera como deriva en resultados sorprendentes y plausibles a partir de dos simples hipótesis y como estas predicciones fueron confirmadas por las observaciones experimentales.
Esta ecuación implica que la energía E de un cuerpo en reposo es igual a su masa m multiplicada por la velocidad de la luz al cuadrado:
Muestra cómo una partícula con masa posee un tipo de energía, "energía en reposo", distinta de las clásicas energía cinética y energía potencial. La relación masa–energía se utiliza comúnmente para explicar cómo se produce la energía nuclear; midiendo la masa de núcleos atómicos y dividiendo por el número atómico se puede calcular la energía de enlace atrapada en los núcleos atómicos. Paralelamente, la cantidad de energía producida en la fisión de un núcleo atómico se calcula como la diferencia de masa entre el núcleo inicial y los productos de su desintegración, multiplicada por la velocidad de la luz al cuadrado.
LA INTERACCIÓN DÉBIL:
es una de las cuatro fuerzas fundamentales de la naturaleza. En el modelo estándar de la física de partículas, ésta se debe al intercambio de los bosones W y Z, que son muy masivos. El efecto más familiar es el decaimiento beta (de los neutrones en el núcleo atómico) y la radiactividad. La palabra "débil" deriva del hecho que un campo de fuerzas es de 1013 veces menor que la interacción nuclear fuerte; aun así esta interacción es más fuerte que la gravitación a cortas distancias.
PROPIEDADES:
La interacción débil afecta a todo leptón con quiralidad zurda y a los quarks. Es la única fuerza que afecta a los neutrinos (excepto por la gravitación, que no se puede evitar a escalas del laboratorio). La interacción débil es única en varios aspectos:
  1. Es la única interacción capaz de cambiar su sabor
  2. Es la única interacción que viola la paridad de la simetría P (ya que sólo actúa sobre electrones, muones y tauones de izquierdas). Esta es también la única que viola la simetría CP.
  3. Es la que media entre los bosones de gauge pesados. Esta característica inusual es explicada en el modelo estándar por el mecanismo de Higgs.

Debido a la gran masa de las partículas que transportan la interacción débil (cerca de los 90 GeV/c2), su vida media está limitada a cerca de 3×10−27  segundos, por el principio de incertidumbre. Incluso a la velocidad de la luz este límite efectivo del rango de la interacción débil de 10−18  metros, cerca de mil veces más pequeña que el diámetro del núcleo atómico.
Ya que la interacción débil es a muy cortas distancias y muy débil, sus efectos más considerables son debido a otra condición única: su cambio de sabor. Considere un neutrón (contiene un quark up y dos quark down), aunque el neutrón es más masivo que su "hermano" nucleón (m(neutrón)= 939.5653 MeV, m(protón)=938.27203 MeV), no puede decaer en un protón (contiene dos quark up y un quark down) sin cambiar el sabor de uno de los quarks down. La interacción fuerte o el electromagnetismo no pueden cambiar su sabor, por lo que esto sólo puede ocurrir a través de un decaimiento débil. En este proceso, un quark down en un neutrón cambia en un quark up emitiendo un bosón W, que luego se rompe en electrones de alta energía y un antineutrino electrónico. Los electrones altamente energéticos son radiación beta, esto es llamado desintegración beta.
Debido a la debilidad de la interacción débil, los decaimientos débiles son muy lentos comparados con los decaimientos fuertes o los electromagnéticos. Por ejemplo, un decaimiento electromagnético de un pion neutro tiene una vida de cerca de 10-16  segundos; un decaimiento débil cargado con un pion vive cerca de 10-8  segundos, cien millones de veces más largo. Un neutrón libre vive cerca de 15 minutos, haciéndola una partícula subatómica inestable con la más larga vida media conocida.
 TIPOS DE INTERACCIÓN:
Hay tres tipos básicos de vértices de la interacción débil (hasta la conjugación de la carga y el cruce simétrico). Dos de ellos envuelven bosones cargados, que son llamados "interacciones de corriente cargada". El tercer tipo es llamado "interacción de corriente neutral".
  • Un leptón cargado (como un electrón o un muon) puede emitir o absorber un bosón W y convertirlo en su correspondiente neutrino.
  • Un quark tipo down (con carga -1/3) puede emitir o absorber a un bosón W y convertirlo en una superposición de quark up. Al contrario, un quark up puede convertir en una superposición de quarks down. El contenido exacto de la superposición es dado por la matriz CKM.
  • O bien un leptón o un quark puede emitir o absorber un bosón Z.
Dos interacciones de corrientes cargadas juntas son responsables del fenómeno de la desintegración beta. La interacción de corriente neutra fue la primera en ser observada en un experimento de dispersión de neutrinos en 1974 y en un experimento de colisiones en 1983.
 VIOLACIÓN DE SIMETRÍA:
jonado.gif (3653 bytes)Las leyes de la naturaleza tienen a seguir siendo las mismas si se las mira con el mismo espejo de reflexión, la inversión de todos los espacios euclidianos. Los resultados de una mirada experimental vía un espejo se esperaba que sean idénticas a los resultados en una copia de otro espejo reflejado de un aparato experimental. La, así llamada, ley de conservación de la paridad fue conocida por respetar a la gravitación clásica y al electromagnetismo; ésta se asumió como ley universal. Sin embargo, a mediados de los años 1950, Chen Ning Yang y Tsung-Dao Lee sugirieron que la interacción débil podría violar esta ley. Chien Shiung Wu y otros colaboradores descubrieron en 1957 que la interacción débil violaba la paridad, por lo que Yang y Lee obtuvieron el Nobel de Física de 1957 por su trabajo.
Aunque la interacción débil se usa para ser descrita por la teoría de Fermi de una interacción de contacto de cuatro fermiones, el descubrimiento de la violación de la paridad y la teoría de renormalización sugiere que un nuevo acercamiento es necesario. En 1957, Robert Marshak, George Sudarshan y posteriormente Richard Feynman y Murray Gell-Mann propusieron un V-A (vector menos un vector axial o un quiral derecho) lagrangiano para interacciones débiles. En esta teoría, la interacción débil actúa solo en las partículas derechas (y las antipartículas también). Si la reflexión del espejo de una partícula izquierda es una partícula derecha, esto explica la máxima violación de la paridad.
Sin embargo, esta teoría permite un componente de simétrico CP para ser conservado. CP combina la paridad P (intercambiando derecha a izquierda) con carga conjugada C (intercambiando partículas con antipartículas). Físicos fueron nuevamente sorprendidos cuando en 1964, James Cronin y Val Fitch proveyó evidencia clara en una desintegración de un kaón, que la simetría CP podía ser rota también, ganando el premio Nobel de Física de 1980. A diferencia de la violación de la paridad, la violación CP tiene efectos muy pequeños.

Es una teoría física publicada en 1905 por Albert Einstein. Surge de la observación de que la velocidad de la luz en el vacío es igual en todos los sistemas de referencia inerciales y de obtener todas las consecuencias del principio de relatividad de Galileo, según el cual cualquier experimentación realizada en un sistema de referencia inercial se desarrollará de manera idéntica en cualquier otro sistema inercial.
La Teoría de la relatividad especial estableció nuevas ecuaciones que permitían pasar de un sistema de referencia inercial a otro. Las ecuaciones correspondientes conducen a fenómenos que chocan con el sentido común, siendo uno de los más asombrosos y más famosos la llamada paradoja de los gemelos.
La relatividad especial tuvo también un impacto en la filosofía, eliminando toda posibilidad de existencia de un tiempo y de un espacio absoluto en el conjunto del universo.
TEORÍA DEL GAS ELECTRÓNICO:
Los metales tienen ciertas propiedades físicas características: a excepción del mercurio son sólidos en condiciones ambientales normales, suelen ser opacos y brillantes, tener alta densidad, ser dúctiles y maleables, tener un punto de fusión alto, ser duros, y ser buenos conductores del calor y la electricidad.
Estas propiedades se deben al hecho de que los electrones exteriores están ligados sólo «ligeramente» a los átomos, formando una especie de gas (también llamado «gas electrónico», «nube electrónica» o «mar de electrones»), que se conoce como enlace metálico. Drude y Lorentz, propusieron este modelo hacia 1900.[1]
Mediante la teoría del «gas electrónico» podemos explicar por que los metales son tan buenos conductores del calor y la electricidad, pero es necesario comprender la naturaleza del enlace entre sus átomos.
Un primer intento para explicar el enlace metálico consistió en considerar un modelo en el cual los electrones de valencia de cada metal se podían mover libremente en la red cristalina. De esta forma, el retículo metálico se considera constituido por un conjunto de iones positivos (los núcleos rodeados por su capa de electrones) y electrones (los de valencia), en lugar de estar formados por átomos neutros.
En definitiva, un elemento metálico se considera que está constituido por cationes metálicos distribuidos regularmente e inmersos en un «gas electrónico» de valencia deslocalizados, actuando como un aglutinante electrostático que mantiene unidos a los cationes metálicos.
El modelo del «gas electrónico» permite una explicación cualitativa sencilla de la conductividad eléctrica y térmica de los metales. Dado que los electrones son móviles, se pueden trasladar desde el electrodo negativo al positivo cuando el metal se somete al efecto de una diferencia de potencial eléctrico. Los electrones móviles también pueden conducir el calor transportando la energía cinética de una parte a otra del cristal. El carácter dúctil y maleable de los metales está permitido por el hecho de que el enlace deslocalizado se extiende en todas las direcciones; es decir, no está limitado a una orientación determinada, como sucede en el caso de los sólidos de redes covalentes.
Cuando un cristal metálico se deforma, no se rompen enlaces localizados; en su lugar, el mar de electrones simplemente se adapta a la nueva distribución de los cationes, siendo la energía de la estructura deformada similar a la original. La energía necesaria para deformar un metal como el litio es relativamente baja, siendo, como es lógico, mucho mayor la que se necesita para deformar un metal de transición, porque este último posee muchos más electrones de valencia que son el aglutinante electrostático de los cationes.
Mediante la teoría del «gas electrónico» se pueden justificar de forma satisfactoria muchas propiedades de los metales, pero no es adecuada para explicar otros aspectos, como la descripción detallada de la variación de la conductividad entre los elementos metálicos.
Protector de Pantalla de una Casita en el LagoLa teoría del enlace de valencia complementa a la teoría de orbitales moleculares. La teoría de orbitales moleculares puede predecir propiedades magnéticas (diamagnetismo y paramagnetismo) de una forma más directa, aunque la teoría de enlace de valencia en una forma complicada genera los mismos resultados. La teoría del enlace de valencia ve las propiedades de aromaticidad en las moléculas que la presentan como debidas a la resonancia entre las estructuras de Kekulé, Dewar y posiblemente iónicas, mientras que la teoría de orbitales moleculares las ve como la deslocalización de los electrones π. Las matemáticas subyacentes también son algo más complicadas, limitando el tratamiento por medio de la teoría de enlace de valencia a moléculas relativamente pequeñas. Por otra parte, la teoría del enlace de valencia provee una descripción más fácil de visualizar de la reorganización de la carga electrónica que tiene lugar cuando se rompen y se forman enlaces durante el curso de una reacción química. En particular, la teoría del enlace de valencia predice correctamente la disociación de moléculas diatómicas homonucleares en átomos separados, mientras que la teoría de orbitales moleculares en su forma simple predice la disociación en una mezcla de átomos y iones.
Más recientemente, algunos grupos han desarrollado lo que frecuentemente se llamada teoría moderna del enlace de valencia. Esta teoría reemplaza el traslape de orbitales atómicos con el traslape de orbitales de enlace de valencia que se expande por toda la molécula. Las energías resultantes son más competitivas cuando se introduce correlación electrónica basada en las funciones de onda de referencia de Hartree-Fock
La regla del octeto, enunciada en 1917 por Gilbert Newton Lewis, dice que la tendencia de los átomos de los elementos del sistema periódico es completar sus últimos niveles de energía con una cantidad de 8 electrones de forma tal que adquiere una configuración muy estable. Esta configuración es semejante a la de un gas noble,[1] los elementos ubicados al extremo derecho de la tabla periódica. Los gases nobles son elementos electroquímicamente estables, ya que cumplen con la estructura de Lewis, son inertes, es decir que es muy difícil que reaccionen con algún otro elemento. Esta regla es aplicable para la creación de enlaces entre los átomos, la naturaleza de estos enlaces determinará el comportamiento y las propiedades de las moléculas. Estas propiedades dependerán por tanto del tipo de enlace, del número de enlaces por átomo, y de las fuerzas intermoleculares.
TEORÍA DE BRONSTED

Clasificación de ácidos y bases encaminada a facilitar la comprensión y discusión de las reacciones básicas o ácidas, formulada por Brønsted.
Brønsted sugirió el uso de la forma hidratada porque quería indicar que el agua es un aceptor de protones, es decir que se combina con los protones. Brønsted deseaba aplicar los términos ácido y base en un sentido más amplio que anteriormente y enunció nuevas definiciones de esos conceptos. Un ácido Brønsted será toda sustancia que, especialmente en solución acuosa, sea capaz de ceder un protón; una base Brønsted será cualquier sustancia que pueda aceptar un protón.
Según la teoría de Brønsted, cada una de estas tres ecuaciones representa la acción de un ácido con una base.
NH3 (g) + H2O <---> NH4+ + OH-
H2SO4 + H2O <---> H3O+ + HSO4-
HSO4- + H2O <---> H3O+ + SO4=
Las tres ecuaciones son reversibles. Brønsted llamó base conjugada del ácido a la producida cuando éste pierde un protón.
La idea de Brønsted ha sido útil, pero su aceptación no significa que las definiciones clásicas estén equivocadas. Para aclarar qué definiciones se están aplicando suele hablarse de ácidos Brønsted y de bases Brønstedl.
Protector de Pantalla de Escenas de CataratasUn campo electromagnético es un campo físico, de tipo tensorial, producido por aquellos elementos cargados eléctricamente, que afecta a partículas con carga eléctrica.
Fijado un sistema de referencia podemos descomponer convencionalmente el campo electromagnético en una parte eléctrica y en una parte magnética. Sin embargo, un observador en movimiento relativo respecto a ese sistema de referencia medirá efectos eléctricos y magnéticos diferentes, lo cual ilustra la relatividad de lo que llamamos parte eléctrica y parte magnética del campo electromagnético. Como consecuencia de lo anterior tenemos que ni el "vector" campo eléctrico ni el "vector" de inducción magnética se comportan genuinamente como magnitudes físicas de tipo vectorial, sino que juntos constituyen un tensor para el que sí existen leyes de transformación físicamente esperables.
Matemáticamente el campo electromagnético en el contexto cuántica se trata de un campo de Yang-Mills cuyo grupo de gauge es el grupo abeliano U(1). Esto añadido a las pecualiaridades de la teoría cuántica de campos llevan a representar el campo electromagnético mediante una aplicación que asigna a cada región del espacio-tiempo un operador autoadjunto (que se transformará de forma apropiada bajo transformaciones de gauge).
LEY DE LA CONSERVACIÓN DE LA MATERIA DE LAVOISIER
En toda reacción química la masa se conserva, esto es, la masa total de los reactivos es igual a la masa total de los productos hechos. Es una de las leyes fundamentales en todas las ciencias naturales, La podemos enunciar de la siguiente manera: la ley de la conservación de la masa dice que en cualquier reacción química la masa se conserva, es decir, la masa y materia no se crea, ni se destruye, solo se transforma y permanece invariable.
LEY DE PROUST O DE LAS PROPORCIONES CONSTANTES
En 1808, J.L. Proust llegó a la conclusión de que para formar un determinado compuesto, dos o más elementos químicos se unen y siempre en la misma proporción ponderal.
Una aplicación de la ley de Proust es la obtención de la denominada composición centesimal de un compuesto, esto es, el porcentaje ponderal que representa cada elemento dentro de la molécula.
LEY DE DALTON O DE LAS PROPORCIONES MÚLTIPLES
Puede ocurrir que dos elementos se combinen entre sí para dar lugar a varios compuestos (en vez de uno solo, caso que contempla la ley de proust). Dalton en 1808 concluyo que el peso de uno de los elementos combinados con un mismo peso del otro guardaran entre sí una relación, expresable generalmente mediante el cociente de números enteros sencillos.
LEY DE LAS PROPORCIONES EQUIVALENTES O RECÍPROCAS (RICHTER 1792)
"Si dos elementos se combinan con cierta masa fija de un tercero en cantidades a y b, respectivamente, en caso de que aquellos elementos se combinen entre sí, lo hacen con una relación de masas a/b, o con un múltiplo de la misma. Es decir, siempre que dos elementos reaccionan entre sí, lo hacen equivalente o según múltiplos o submúltiplos de estos."

PROUST Y LA LEY DE LAS PROPORCIONES DEFINIDAS

Entre 1794 y 1804, Louis Proust realizó numerosos experimentos en los que estudió la composición de diversos carbonatos de cobre, óxidos de estaño y sulfuros de hierro, descubriendo que la proporción en masa de cada uno de los componentes, por ejemplo carbono, cobre y oxígeno en los carbonatos de cobre, se mantenía constante en el compuesto final, y no adquiría ningún valor intermedio, independientemente de si eran un carbonato natural o artificial, o de las condiciones iniciales de la síntesis. Así, dos compuestos diferírían entre sí en función de las proporciones de elementos básicos, sin apreciarse composiciones intermedias o mixtas, por ejemplo el Cu2CO3, carbonato de cobre (I) y el CuCO3, carbonato de cobre (II). Estas conclusiones le llevaron a enunciar la Ley de las proporciones definidas o constantes, también conocida como la ley de Proust, y que, una vez firmemente aceptada, se convirtió, junto a la Ley de conservación de la masa de Lavoisier y la Ley de las proporciones múltiples de Dalton, es decir, la presencia de proporciones en el esqueleto de la química cuantitativa, la estequiometría química, y abrió el camino al concepto de compuesto químico y al establecimiento de la teoría atómica de Dalton. La ley de Proust contradecía las conclusiones del químico francés Claude Louis Berthollet, quien defendía que las proporciones en la que se combinaban los elementos en un compuesto dependían de las condiciones de su síntesis. Proust logró desacreditar la investigación de Berthollet cuando demostró en 1799 en su laboratorio de Segovia que muchas de las substancias que Berthollet consideraba óxidos puros eran compuestos hidratados, es decir, con moléculas de agua adicionales unidas químicamente. En 1811 el prestigioso químico sueco Jöns Jacob Berzelius apoyó la propuesta de Proust, que fue finalmente aceptada con un amplio consenso. Las ideas de Berthollet no estaban del todo equivocadas, dado que hay numerosas excepciones a la Ley de las proporciones definidas en los que han venido en llamarse compuestos no estequiométricos o bertólidos, y en los que las proporciones entre los distintos elementos varían entre ciertos límites. La causa es la estructura cristalográfica de los compuestos, que aunque tiene una composición ideal, por ejemplo FeO en el óxido de hierro (II) que, debido a los defectos en los cristales como la ausencia de algún tipo de átomos, puede variar su fórmula, por ejemplo reduciendo el hierro a proporciones que se hallan entre Fe0.83O y Fe0.95O. Como contrapartida los compuestos que cumplen la ley de las proporciones definidas se denominan daltónidos, en honor a John Dalton.
se le considera el padre de la química por sus detallados estudios, entre otros: el estudio del aire, el fenómeno de la respiración animal y su relación con los procesos de oxidación, análisis del agua, uso de la balanza para establecer relaciones cuantitativas en las reacciones químicas estableciendo su famosa ley de conservación de la masa
REFERENCIAS:
*      http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad_especial
*      http://es.wikipedia.org/wiki/Modelo_electrod%C3%A9bil
*      http://es.wikipedia.org/wiki/Teor%C3%ADa_del_enlace_de_valencia
*      http://es.wikipedia.org/wiki/Campo_electromagn%C3%A9tico
ANEXOS:
PAGINAS RECOMENDADAS: