martes, 20 de abril de 2010

La paradoja de los gemelos

Es un experimento mental que analiza la distinta percepción del tiempo entre dos observadores con diferentes estados de movimiento.

Esta paradoja fue propuesta por Einstein al desarrollar lo que hoy se conoce como la relatividad especial. Dicha teoría postula que la medida del tiempo no es absoluta, y que, dados dos observadores, el tiempo medido entre dos eventos por estos observadores, en general, no coincide, sino que la diferente medida de tiempos depende del estado de movimiento relativo entre ellos. Así, en la teoría de la relatividad, las medidas de tiempo y espacio son relativas, y no absolutas, ya que dependen del estado de movimiento del observador. En ese contexto es en el que se plantea la paradoja.




Formulación de la paradoja
En la formulación más habitual de la paradoja, debida a Paul Langevin, se toma como protagonistas a dos gemelos (de ahí el nombre); el primero de ellos hace un largo viaje a una estrella en una nave espacial a velocidades cercanas a la velocidad de la luz; el otro gemelo se queda en la Tierra. A la vuelta, el gemelo viajero es más joven que el gemelo terrestre.

De acuerdo con la teoría especial de la relatividad, y según su predicción de la dilatación del tiempo, el gemelo que se queda en la Tierra envejecerá más que el gemelo que viaja por el espacio a gran velocidad (más adelante se prueba esto mediante cálculo) porque el tiempo propio del gemelo de la nave espacial va más lento que el tiempo del que permanece en la Tierra y, por tanto, el de la Tierra envejece más rápido que su hermano.
Pero la paradoja surge cuando se hace la siguiente observación: visto desde la perspectiva del gemelo que va dentro de la nave, el que se está alejando, en realidad, es el gemelo en la Tierra (de acuerdo con la Invariancia galileana) y, por tanto, cabría esperar que, de acuerdo con los cálculos de este gemelo, su hermano en la Tierra fuese quien tendría que envejecer menos por moverse respecto de él a velocidades cercanas a la de la luz. Esto es, el gemelo de la nave es quien tendría que envejecer más rápido.
La paradoja quedaría dilucidada si se pudiese precisar quién envejece más rápido
realmente y qué hay de erróneo en la suposición de que, de acuerdo con los cálculos del gemelo de la nave, es el gemelo terrestre quien envejece menos.

Solución de la paradoja según la relatividad especial
A Einstein le costó aclarar esta paradoja unos cuantos años, hasta que formuló la relatividad general y demostró que, ciertamente, es el gemelo de la Tierra quien envejece más rápido.

Sin embargo, aunque Einstein resolvió la paradoja en el contexto de la relatividad general, la paradoja puede resolverse dentro de los límites de la teoría de la relatividad especial, como muestra este artículo.
Para dilucidar la aparente paradoja es necesario realizar los cálculos desde el punto de vista del gemelo que permanece en la Tierra y desde el punto de vista del gemelo viajero, y ver que las estimaciones de tiempo transcurrido coinciden examinadas desde ambos puntos de vista.
El cálculo desde el punto de vista del gemelo terrestre es rutinario y muy sencillo. El cálculo desde el punto de vista del gemelo viajero es más complejo porque requiere realizar cálculos en un sistema no inercial. A continuación, se presentan las predicciones de la teoría aplicadas a ambos gemelos y se prueba que los resultados coinciden, demostrando que la aparente paradoja no es tal.

Cálculo según el gemelo terrestre




Por tanto, en el momento del encuentro de acuerdo con los cálculos del gemelo terrestre, él y su gemelo viajero habrán notado tiempos diferentes de viaje dados por:
Es sencillo comprobar que para cualesquiera valores de w, T1 y T2, el segundo tiempo es siempre menor que el primero:


y por tanto, el gemelo terrestre envejecerá más que el gemelo viajero.


Cálculo según el gemelo viajero




Finalmente para calcular la duración de la segunda etapa del viaje para ambos gemelos, pero haciendo los cálculos según el sistema de referencia del gemelo viajero, tenemos que seleccionar una forma de la métrica.

Resolución de la paradoja en relatividad general



Aunque la paradoja de los gemelos puede resolverse íntegramente dentro de la teoría especial de la relatividad, resulta interesante considerar el mismo problema desde el punto de vista de teoría de la relatividad general. Usando el enfoque de esa teoría más general, la parte del viaje en la que el gemelo viajero se mueve aceleradamente son percibidas por éste como si estuviera en el seno de un "campo gravitatorio efectivo" asociado a la aceleración, de acuerdo con lo postulado por el principio de equivalencia. Este punto de vista está bien representado en la solución que ofreció Einstein de la paradoja en 1918 dentro del marco de la teoría general.
Según el enfoque de la relatividad general la diferencia acumulada de tiempo entre los dos gemelos puede ser explicada mediante una dilatación gravitacional del tiempo. De acuerdo con la relatividad general, la relación entre los tiempos propios acumulados por dos observadores situados en diferentes puntos de un campo gravitatorio estático puede representarse por:

Evidencia experimental
Contrariamente a lo que piensa la gente, la paradoja no es el hecho de que un gemelo envejezca más rápido que otro, sino en el razonamiento capcioso que sugería que los dos gemelos concluirían que es el otro quien envejecería más. Como se ha visto los cálculos de los dos gemelos concuerdan en que será el gemelo terrestre quien envejecerá más.
El hecho de que el tiempo transcurra de diferentes maneras para diferentes observadores, y que dos observadores puedan reencontrarse de nuevo en el mismo punto del espacio-tiempo habiendo envejecido uno menos que otro no constituye ninguna paradoja en teoría de la relatividad, sino que de hecho se trata de un hecho probado.

jueves, 18 de marzo de 2010

Luigi Galvani

Luigi Galvani


(Bolonia, Italia, 9 de septiembre de 1737 - id., 4 de diciembre de 1798), médico, fisiólogo y físico italiano, sus estudios le permitieron descifrar la naturaleza eléctrica del impulso nervioso.



nació en la ciudad universitaria de Bolonia en 1737. Desde temprana edad se interesó en la teología y la estudió durante un tiempo, pero luego la abandonó por la medicina, ingresando en la universidad de su ciudad.
Allí descubrió su interés por desentrañar el modo en que funcionaban los sentidos sobre la anatomía y cirugía en su universidad a poco de haber recibido su título de grado (1762).
Dividió sus primeros años de actividad académica entre la investigación anatómica y la práctica quirúrgica. Su tesis doctoral versó sobre la estructura, función y patología de los huesos (De Ossibus,1762). En ella describe los elementos anatómicos y "químicos" con que los huesos se forman, sus patrones de crecimiento, así como las enfermedades que les afectan.

En 1775 llegó a ser profesor adjunto o ayudante de Galeazzi en la cátedra de anatomía de la Universidad de Bolonia. El Senado lo nombró preparador y conservador del Museo anatómico en 1766, y en febrero de 1782, ocupó el cargo de profesor de obstetricia en el Instituto delle Scienze. Llegó a presidir la Academia de Ciencias en 1772

Alessandro Giuseppe

Alessandro Giuseppe Antonio Anastasio Volta
(18 de febrero de 1745 – 5 de marzo de 1827) fue un físico italiano, famoso principalmente por haber desarrollado la pila eléctrica en 1800.
La unidad de fuerza electromotriz del Sistema Internacional de Unidades lleva el nombre de voltio en su honor desde el año 1881. En 1964 la UAI decidió en su honor llamarle Volta a un astroblema lunar.Alessandro Volta nació y fue educado en Como, Lombardía. Fue hijo de una madre noble y de un padre de la alta burguesía. Recibió una educación básica y media humanista, pero al llegar a la enseñanza superior, optó por una formación científica.

En el año 1774 fue nombrado profesor de física de la Escuela Real de Como. Un año después, Volta realizó su primer invento, un aparato relacionado con la electricidad. Con dos discos metálicos separados por un conductor húmedo, pero unidos con un circuito exterior. De esta forma logra por primera vez, producir corriente eléctrica continua, inventando el electróforo perpetuo, un dispositivo que una vez que se encuentra cargado, puede transferir electricidad a otros objetos, y que genera electricidad estática. Entre los años 1786 y 1788, se dedicó a la química, descubriendo y aislando el gas de metano. Un año más tarde, en 1789, fue nombrado profesor titular de la cátedra de física experimental en la Universidad de Pavía.

En 1780, un amigo de Volta, Luigi Galvani, observó que el contacto de dos metales diferentes con el músculo de una rana originaba la aparición de corriente eléctrica. En 1794, a Volta le interesó la idea y comenzó a experimentar con metales únicamente, y llegó a la conclusión de que el tejido muscular animal no era necesario para producir corriente eléctrica. Este hallazgo suscitó una fuerte controversia entre los partidarios de la electricidad animal y los defensores de la electricidad metálica, pero la demostración, realizada en 1800, del funcionamiento de la primera pila eléctrica certificó la victoria del bando favorable a las tesis de Volta.Alessandro Volta comunicó su descubrimiento de la pila a la Royal Society londinense el 20 de marzo de 1800. La comunicación de Volta fue leída en audiencia el 26 de junio del mismo año, y tras varias reproducciones del invento efectuadas por los miembros de la sociedad, se confirmó el descubrimiento y se le otorgó el crédito de éste.
En septiembre de 1801, Volta viajó a París aceptando una invitación del emperador Napoleón Bonaparte, para exponer las características de su invento en el Instituto de Francia. El propio Bonaparte participó con entusiasmo en las exposiciones. El 2 de noviembre del mismo año, la comisión de científicos distinguidos por la Academia de las Ciencias del Instituto de Francia encargados de evaluar el invento de Volta emitió el informe correspondiente aseverando su validez. Impresionado con la batería de Volta, el emperador lo nombró conde y senador del reino de Lombardía, y le otorgó la más alta distinción de la institución, la medalla de oro al mérito científico. El emperador de Austria, por su parte, lo designó director de la facultad de filosofía de la Universidad de Padua en 1815.
Sus trabajos fueron publicados en cinco volúmenes en el año 1816 en Florencia. Los últimos años de vida los pasó en su hacienda en Camnago, cerca de Como, donde falleció el 5 de marzo de 1827.

Coulomb


Charles-Augustin de Coulomb
(Angoulême, Francia, 14 de junio de 1736 - París, 23 de agosto de 1806). Físico e ingeniero militar francés. Se recuerda por haber descrito de manera matemática la ley de atracción entre cargas eléctricas. En su honor la unidad de carga eléctrica lleva el nombre de coulomb (C). Entre otras teorías y estudios se le debe la teoría de la torsión recta y un análisis del fallo del terreno dentro de la Mecánica de suelos.


Fue el primer cientifico en establecer las leyes cuantitativas de la electrostática, además de realizar muchas investigaciones sobre: magnetismo, rozamiento y electricidad. Sus investigaciones científicas están recogidas en siete memorias, en las que expone teóricamente los fundamentos del magnetismo y de la electrostática. En 1777 inventó la balanza de torsión para medir la fuerza de atracción o repulsión que ejercen entre si dos cargas eléctricas, y estableció la función que liga esta fuerza con la distancia. Con este invento, culminado en 1785, Coulomb pudo establecer el principio, que rige la interacción entre las cargas eléctricas


La ley de Coulomb es válida sólo en condiciones estacionarias, es decir, cuando no hay movimiento de las cargas o, como aproximación cuando el movimiento se realiza a velocidades bajas y en trayectorias rectilíneas uniformes. Es por ello que es llamada fuerza electrostática.


En términos matemáticos, la magnitud de la fuerza que cada una de las dos cargas puntuales y ejerce sobre la otra separadas por una distancia



Experimento de Cavendish

El experimento de Cavendish o de la balanza de torsión constituyó la primera medida de la fuerza de gravedad entre dos masas y, por ende, a partir de la Ley de gravitación universal de Newton y las características orbitales de los cuerpos del Sistema Solar, la primera determinación de la masa de los planetas y del Sol.


Una versión inicial del experimento fue propuesta por John Michell, quien llegó a construir una balanza de torsión para estimar el valor de la constante de gravedad. Sin embargo, murió en 1783 sin poder completar su experimento y el instrumento que había construido fue heredado por Francis John Hyde Wollaston, quien se lo entregó a Henry Cavendish.

Cavendish se interesó por la idea de Michell y reconstruyó el aparato, realizando varios experimentos muy cuidadosos con el fin de determinar la densidad media de la Tierra. Sus informes aparecieron publicados en 1798 en la Philosophical Transactions de la Royal Society. A principios del siglo XIX se pudo obtener, por primera vez, el valor de la constante de gravitación universal G a partir de su trabajo, el cual (6.74·10-11) difería del actual (6.67·10-11) en menos de un 1%


El instrumento construido por Cavendish consistía en una balanza de torsión con una vara horizontal de seis pies de longitud en cuyos extremos se encontraban dos esferas metálicas. Esta vara colgaba suspendida de un largo hilo. Cerca de las esferas Cavendish dispuso dos esferas de plomo de unos 175 kg cuya acción gravitatoria debía atraer las masas de la balanza produciendo un pequeño giro sobre esta. Para impedir perturbaciones causadas por corrientes de aire, Cavendish emplazó su balanza en una habitación a prueba de viento y midió la pequeña torsión de la balanza utilizando un telescopio


En realidad, el único propósito de Cavendish era determinar la densidad de la Tierra. Él llamaba a esto «pesar el mundo». El método de Cavendish utilizado para calcular la densidad de la Tierra consistía en medir la fuerza sobre una pequeña esfera debida a una esfera mayor de masa conocida y comparar esto con la fuerza sobre la esfera pequeña debida a la Tierra. De esta forma se podía describir a la Tierra como N veces más masiva que la esfera grande sin necesidad de obtener un valor numérico para G.


La constante gravitacional no aparece en el artículo de Cavendish y no hay indicio de que él haya vislumbrado esto como propósito experimental. Una de las primeras referencias a G apareció en 1873, 75 años después del trabajo de Cavendish

martes, 9 de marzo de 2010

martes, 2 de febrero de 2010

TAREA


Preguntas de repaso capítulo 35


Ejercicios capítulo 35









TAREA

Preguntas de Repaso capítulo 34




Ejercicios c.34











martes, 19 de enero de 2010

Escuela de Copenhague

¿Qué era la Escuela de Copenhague?
Fundada en 1934, la Escuela de Copenhague fue una de las escuelas lingüísticas estructuralistas más importantes de Europa.
Sus principales representantes fueron Hjelmslev, en cuya obra Principios de gramática general desarrolló su teoría de la glosemática, y Brøndal, que trató de descubrir las categorías lógicas del lenguaje
.

Principio de incertidumbre

PRINCIPIO DE INCERTIDUMBRE
Heisenberg había presentado su propio modelo de átomo renunciando a todo intento de describir el átomo como un compuesto de partículas y ondas. Pensó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y la estructura del mundo. Prefirió describir los niveles de energía u órbitas de electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera que usó un artificio matemático denominado "matriz" para manipular sus números, el sistema se denominó "mecánica de matriz".
El "principio de incertidumbre" afectó profundamente al pensamiento de los físicos y los filósofos. Ejerció una influencia directa sobre la cuestión filosófica de "casualidad" (es decir, la relación de causa y efecto). Pero sus implicaciones para la ciencia no son las que se suponen por lo común. Se lee a menudo que el principio de incertidumbre anula toda certeza acerca de la naturaleza y muestra que, al fin y al cabo, la ciencia no sabe ni sabrá nunca hacia dónde se dirige, que el conocimiento científico está a merced de los caprichos imprevisibles de un Universo donde el efecto no sigue necesariamente a la causa. Tanto si esta interpretación es válida desde el ángulo visual filosófico como si no, el principio de incertidumbre no ha conmovido la actitud del científico ante la investigación. Si, por ejemplo, no se puede predecir con certeza el comportamiento de las moléculas individuales en un gas, también es cierto que las moléculas suelen acatar ciertas leyes, y su conducta es previsible sobre una base estadística, tal como las compañías aseguradoras calculan con índices de mortalidad fiables, aunque sea imposible predecir cuándo morirá un individuo determinado.
En síntesis, se puede describir que el principio de incertidumbre postula que en la mecánica cuántica es imposible conocer exactamente, en un instante dado, los valores de dos variables canónicas conjugadas (posición-impulso, energía-tiempo, …, etc.) de forma que una medición precisa de una de ellas implica una total indeterminación en el valor de la otra

Efecto fotoelectrico

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales.

EXPLICACION FISICA DEL FENOMENO


Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:




La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía

E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v - Eextracción

donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados
:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.


Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

martes, 12 de enero de 2010

Aplicación de ondas

Radiofrecuencia
En radiocomunicaciones, los rangos se abrevian con sus siglas en inglés. Los rangos son:


Frecuencias extremadamente bajas: Llamadas ELF (Extremely Low Frequencies), son aquellas que se encuentran en el intervalo de 3 a 30 Hz. Este rango es equivalente a aquellas frecuencias del sonido en la parte más baja (grave) del intervalo de percepción del oído humano. Cabe destacar aquí que el oído humano percibe ondas sonoras, no electromagnéticas, sin embargo se establece la analogía para poder hacer una mejor comparación.
Frecuencias super bajas: SLF (Super Low Frequencies), son aquellas que se encuentran en el intervalo de 30 a 300 Hz. En este rango se incluyen las ondas electromagnéticas de frecuencia equivalente a los sonidos graves que percibe el oído humano típico.
Frecuencias ultra bajas: ULF (Ultra Low Frequencies), son aquellas en el intervalo de 300 a 3000 Hz. Este es el intervalo equivalente a la frecuencia sonora normal para la mayor parte de la voz humana.
Frecuencias muy bajas: VLF, Very Low Frequencies. Se pueden incluir aquí las frecuencias de 3 a 30 kHz. El intervalo de VLF es usado típicamente en comunicaciones gubernamentales y militares.
Frecuencias bajas: LF, (Low Frequencies), son aquellas en el intervalo de 30 a 300 kHz. Los principales servicios de comunicaciones que trabajan en este rango están la navegación aeronáutica y marina.
Frecuencias medias: MF, Medium Frequencies, están en el intervalo de 300 a 3000 kHz. Las ondas más importantes en este rango son las de radiodifusión de AM (530 a 1605 kHz).
Frecuencias altas: HF, High Frequencies, son aquellas contenidas en el rango de 3 a 30 MHz. A estas se les conoce también como "onda corta". Es en este intervalo que se tiene una amplia gama de tipos de radiocomunicaciones como radiodifusión, comunicaciones gubernamentales y militares. Las comunicaciones en banda de radioaficionados y banda civil también ocurren en esta parte del espectro.

Frecuencias muy altas: VHF, Very High Frequencies, van de 30 a 300 MHz. Es un rango popular usado para muchos servicios, como la radio móvil, comunicaciones marinas y aeronáuticas, transmisión de radio en FM (88 a 108 MHz) y los canales de televisión del 2 al 12 [según norma CCIR (Estándar B+G Europa)]. También hay varias bandas de radioaficionados en este rango.
Frecuencias ultra altas: UHF, Ultra High Frequencies, abarcan de 300 a 3000 MHz, incluye los canales de televisión de UHF, es decir, del 21 al 69 [según norma CCIR (Estándar B+G Europa)] y se usan también en servicios móviles de comunicación en tierra, en servicios de telefonía celular y en comunicaciones militares.

Frecuencias super altas: SHF, Super High Frequencies, son aquellas entre 3 y 30 GHz y son ampliamente utilizadas para comunicaciones vía satélite y radioenlaces terrestres. Además, pretenden utilizarse en comunicaciones de alta tasa de transmisión de datos a muy corto alcance mediante UWB. También son utilizadas con fines militares, por ejemplo en radares basados en UWB.
Frecuencias extremadamente altas: EHF, Extrematedly High Frequencies, se extienden de 30 a 300 GHz. Los equipos usados para transmitir y recibir estas señales son más complejos y costosos, por lo que no están muy difundidos aún.

Existen otras formas de clasificar las ondas de radiofrecuencia. Como ejemplo, cabe destacar que las frecuencias entre 1 GHz y 300 GHz, son llamadas microondas. Estas frecuencias abarcan parte del rango de UHF y todo el rango de SHF y EHF. Estas ondas se utilizan en numerosos sistemas, como múltiples dispositivos de transmisión de datos, radares y hornos microondas.

Infrarrojo

Las ondas infrarrojas están en el rango de 0,7 a 100 micrómetros. La radiación infrarroja se asocia generalmente con el calor. Éstas son producidas por cuerpos que generan calor, aunque a veces pueden ser generadas por algunos diodos emisores de luz y algunos láseres.
Las señales son usadas para algunos sistemas especiales de comunicaciones, como en astronomía para detectar estrellas y otros cuerpos y para guías en armas, en los que se usan detectores de calor para descubrir cuerpos móviles en la oscuridad. También se usan en los controles remotos de los televisores, en los que un transmisor de estas ondas envía una señal codificada al receptor del televisor. En últimas fechas se ha estado implementando conexiones de área local
LAN por medio de dispositivos que trabajan con infrarrojos, pero debido a los nuevos estándares de comunicación estas conexiones han perdido su versatilidad.

Espectro visible
Espectro electromagnético.

Color
Longitud de onda
violeta
380–450 nm
azul
450–495 nm
verde
495–570 nm
amarillo
570–590 nm
naranja
590–620 nm
rojo
620–750 nm
Por encima de la frecuencia de las radiaciones infrarrojas tenemos lo que comúnmente llamamos luz. Es un tipo especial de radiación electromagnética que tiene una longitud de onda en el intervalo de 0,4 a 0,8 micrómetros. La unidad usual para expresar las longitudes de onda es el
Angstrom. Los intervalos van desde los 8.000 Å(rojo) hasta los 4.000 Å (violeta), donde la onda más corta es la del color violeta.
La luz puede usarse para diferentes tipos de comunicaciones. Las ondas de luz pueden modularse y transmitirse a través de
fibras ópticas, lo cual representa una ventaja pues con su alta frecuencia es capaz de llevar más información.
Por otro lado, las ondas de luz pueden transmitirse en el espacio libre, usando un haz visible de láser.
Ultravioleta
La luz ultravioleta cubre el intervalo de 4 a 400 nm. El
Sol es una importante fuente emisora de rayos en esta frecuencia, los cuales causan cáncer de piel a exposiciones prolongadas. Este tipo de onda no se usa en las telecomunicaciones, sus aplicaciones son principalmente en el campo de la medicina.

Rayos X
La denominación rayos X designa a una radiación electromagnética, invisible, capaz de atravesar cuerpos opacos y de impresionar las películas fotográficas. La longitud de onda está entre 10 a 0,1 nanómetros, correspondiendo a frecuencias en el rango de 30 a 3.000 PHz (de 50 a 5.000 veces la frecuencia de la luz visible).
Rayos gamma

La radiación gamma es un tipo de radiación electromagnética producida generalmente por elementos radioactivos o procesos subatómicos como la aniquilación de un par positrón-electrón. Este tipo de radiación de tal magnitud también es producida en fenómenos astrofísicos de gran violencia.

Debido a las altas energías que poseen, los rayos gamma constituyen un tipo de radiación ionizante capaz de penetrar en la materia más profundamente que la radiación alfa o beta. Dada su alta energía pueden causar grave daño al núcleo de las células, por lo que son usados para esterilizar equipos médicos y alimentos.