martes, 27 de julio de 2010

wi-fi

Aunque se pensaba que el término viene de Wireless Fidelity como equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la WECA: contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger, miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió
"Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de recordar. Necesitábamos algo que fuera algo más llamativo que "IEEE 802.11b de Secuencia Directa". Interbrand creó nombres como "Prozac", "Compaq", "OneWorld", "Imation", por mencionar algunas. Incluso inventaron un nombre para la compañía: VIVATO."
Phil Belanger

Estándares que certifica Wi-Fi

Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE802.11 aprobado. Son los siguientes:
  • En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además, no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
  • Un primer borrador del estándar IEEE 802.11n que trabaja a 2.4 GHz y a una velocidad de 108 Mbps. Sin embargo, el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbps, gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.

Seguridad y fiabilidad

Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias.
Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos. La mayoría de las formas son las siguientes:
  • WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una "clave" de cifrado antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave.
  • WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
  • IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
  • Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos, y si son pocos.
  • Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
  • El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.

Dispositivos

Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.
  • Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
  • Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.

Router WiFi.
  • Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
  • Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:

    Tarjeta USB para Wi-Fi.
    • Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
    • Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
    • Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no está estandarizada.
    • También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".

Ventajas y desventajas

Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
  • Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
  • Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
  • La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
  • Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
  • La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante).
  • Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.
Agustin Egui
CAF

lunes, 26 de julio de 2010

campo magnetico de la corriente alterna

CAMPO MAGNÉTICO DE LA CORRIENTE ALTERNA

Las cargas eléctricas o electrones que fluyen por el cable o conductor de un circuito de corriente alterna (C.A.) no lo hacen precisamente por el centro o por toda el área del mismo, como ocurre con la corriente continua o directa (CD), sino que se mueven más bien próximos a su superficie o por su superficie, dependiendo de la frecuencia que posea dicha corriente, provocando la aparición de un campo magnético a su alrededor.






A.- Sección transversal de un cable o conductor de cobre. B.- Corriente eléctrica de baja frecuencia. circulando por el cable. C.- A medida que se incrementa la frecuencia, la corriente tiende a fluir más. hacia la superficie del cable. D.- A partir de los 30 mil ciclos por segundo (30 kHz) de frecuencia de la. corriente, se generan ondas electromagnéticas de radio, que se propagan desde la superficie del cable. hacia el espacio.


Un generador de corriente alterna (también llamado "alternador") normalmente genera corriente con una frecuencia de 50 ó 60 hertz (Hz), de acuerdo con cada país en específico, entregándola a la red eléctrica industrial y doméstica.

Sin embargo, si se dispone de un oscilador electrónico como el que emplean las plantas o estaciones transmisoras de radiodifusión comercial, a partir del momento en que la frecuencia de la corriente que genera dicho oscilador supera los 30 mil ciclos por segundo (30 kHz), el campo magnético que producen las cargas eléctricas o electrones que fluyen por el conductor que hace función de antena, comienza a propagarse por el espacio en forma de ondas de radiofrecuencia.

La forma en que se expanden esas ondas de radio, guarda similitud con lo que ocurre cuando tiramos una piedra en la superficie tranquila de un lago o estanque de agua: a partir del punto donde cae la piedra, se generan una serie de ondas que se extienden hasta desaparecer o llegar la orilla.





A partir del punto donde cae una piedra en la superficie de un líquido, se generan una serie de olas que. guardan estrecha semejanza con la forma en que surgen y se propagan las ondas de radiofrecuencia a. partir que salen de la antena de un transmisor de radio.


A diferencia de los generadores o alternadores que entregan tensiones o voltajes altos y frecuencias bajas, los circuitos osciladores electrónicos funcionan con tensiones o voltajes relativamente bajos, pero que generan corrientes de altas frecuencias capaces de propagarse a largas distancias a través del espacio. Esas ondas de radiofrecuencia se utilizan como portadoras para transportar, a su vez, otras ondas de baja frecuencia como las de sonido (ondas de audiofrecuencia producidas la voz, la música y todo tipo de sonidos), que por sí solas son incapaces de recorrer largas distancias.

En las transmisiones inalámbricas, al proceso de inyectar o añadir señales de baja frecuencia o audiofrecuencia (como las del sonido) a una onda portadora alta frecuencia se le denomina "modulación de la señal de audio". Mediante ese procedimiento una onda de radiofrecuencia que contenga señales de audio se puede modular en amplitud (Amplitud Modulada – AM) o en frecuencia (Frecuencia Modulada – FM).



A.- Onda de radiofrecuencia.

B.-
Onda de audiofrecuencia.

C.-
La onda de baja frecuencia o audiofrecuencia (B), inyectada en. la onda de alta frecuencia o radiofrecuencia (A). Por medio de esa. combinación se obtiene una señal de radio de amplitud modulada. (AM), capaz de transportar sonidos por vía inalámbrica a largas. distancias para ser captados por un radiorreceptor.

D.-
La onda de audiofrecuencia (B) modulada en frecuencia, obteniéndose una señal de radio de frecuencia modulada (FM), empleada por las estaciones de radiodifusión y también de. televisión para transmitir el audio que acompaña las señales de. video.


Debido a que las corrientes de alta frecuencia no circulan por el interior de los conductores, sino por su superficie externa, en la fabricación de antenas se emplean tubos metálicos con el interior hueco. Esto lo podemos comprobar observando la forma en que están construidas las antenas telescópicas que incorporan los radios y televisores portátiles.

El principio de recepción de ondas de radiofrecuencia es similar al de su transmisión, por tanto, como la corriente que se induce en las antenas receptoras de ondas de radio y televisión es una señal de alta frecuencia procedente de la antena transmisora, su interior es también hueco.

Agustin Egui
CAF

Dispositivos MEMS

Dispositivos mecánicos ultra pequeños: los MEMS

En el otro extremo de las técnicas de fabricación tenemos el método llamado de "top-down" que corresponde a la realización de estructuras micrométricas (1 m=1000 nm =10-6 m) a partir de un proceso de reducción y moldeado de materiales de dimensiones mayores. Este es el método típico de fabricación de dispositivos propios de la microelectrónica y que gracias al avance de las técnicas de litografía permite alcanzar hoy en día escalas submicrométricas.
Para fijar ideas podemos decir que en el microprocesador de una computadora actual tenemos unos 50 millones de transistores por cm2, lo que implica una dimensión típica de 1 m2 por transistor, con un detalle de los contornos del orden de los 100 nm. Esta miniaturización ha permitido reducir componentes electrónicos voluminosos dando a lugar a equipos portátiles, que de otra manera no se emplearían (radios personales, notebooks, teléfonos celulares, etc.) con un panorama de aplicaciones increíble.
¿Y qué tal si lográramos reducir máquinas enteras?

Se podrían construir, por ejemplo, pequeños dinamómetros (sensores de fuerza) que colocados en las patas de una cucaracha nos permitirían entender cómo efectúa y distribuye las fuerzas para lograr un desplazamiento tan eficiente en superficies no horizontales. Esta información nos llevaría eventualmente a construir nuevos dispositivos mecánicos en la escala humana para simular las técnicas de desplazamiento de estos insectos. También se podría armar, en dimensiones muy reducidas, un dispositivo ubicado en el cuerpo de un paciente ("lab on chip"), que analizara su sangre y que, en función de los resultados, inyectara fármacos en las dosis adecuadas, y hasta podría enviar una señal de alerta para que el paciente fuera atendido de urgencia. Estas máquinas funcionarían en definitiva como pequeños robots que nos permitirían la realización de un conjunto de tareas hasta hoy inaccesibles en un mundo de escala micrométrica.

 
La miniaturización de máquinas electromecánicas o MEMS ya es una realidad de nuestros días. Efectivamente, estos microdispositivos ya se emplean para la realización de acelerómetros, presentes en los airbags de los autos para determinar el momento justo en que se produce un choque y disparar así el mecanismo de inflado de las bolsas. Este mismo tipo de MEMS se emplean como elementos de navegación, particularmente en la industria aeroespacial, pero también se prevén aplicaciones como sensores de presión, temperatura y humedad. Se los ha incorporado en marcapasos, para sensar la actividad física del paciente y modificar su ritmo cardíaco. Para evitar falsificaciones de firmas, se ha pensado incorporar estos acelerómetros en lapiceras. De esta manera, no sólo estaría registrado el trazo particular de la firma sino también las velocidades y aceleraciones que le imprimió la mano a la lapicera mientras se firmaba, lo cual haría mucho más difícil su falsificación. También se emplean MEMS en los cabezales de las impresoras de chorro de tinta, produciendo la evaporación controlada de la tinta en el momento justo, y gracias a la entrega localizada de calor. Además de la ventaja del tamaño de estos dispositivos está el hecho de que se los puede fabricar de a miles abaratando notablemente su costo de fabricación.
Los MEMS, como toda nueva tecnología, han tenido un impacto importante a la hora de favorecer el acceso a nuevo conocimiento científico. Este es el caso de la llamada óptica adaptable. La luz de los objetos astronómicos que llega a los telescopios terrestres pasa necesariamente a través de la atmósfera, variando su camino óptico por las variaciones de densidad del aire y de temperatura. Como resultado se obtiene una imagen borrosa, con mala resolución angular. Para evitar este problema, una solución costosa es la de ubicar los telescopios en el espacio (como es el caso del Hubble). Otra solución menos costosa e interesante por su capacidad de emplear telescopios grandes, no limitados por las dimensiones que se pueden manejar en los transportes espaciales, es la que aportó el desarrollo de espejos cuya superficie se deforma mediante MEMS, corrigiendo las distorsiones que produce la atmósfera terrestre.
Esquema del dispositivo que corrige las deformaciones de la imagen producidas por la turbulencia de la atmósfera terrestre. La óptica adaptable, realizada mediante MEMS, permite neutralizar este efecto y obtener una resolución angular adecuada como para distinguir objetos estelares que de otra manera se encontrarían confundidos en una imagen borrosa.
Otra aplicación científica de los MEMS fue la realización de instrumentos de medición de fuerzas entre dos objetos cuyas superficies se encuentran a distancias submicrométricas (< 1um). Uno de los objetivos era poner en evidencia posibles desviaciones de la ley de gravitación universal respecto de la ley establecida por Newton, como predicen algunos modelos teóricos. Según estos modelos, estas desviaciones se podrían hacer más evidentes cuanto menor sea la distancia entre los objetos. El problema es que a cortas distancias también aparecen otras interacciones, como la que surge del llamado efecto Casimir. Este efecto, ligado a la aparición de una fuerza atractiva entre objetos conductores, cuyo origen se relaciona con una propiedad cuántica (oscilaciones de punto cero), se manifiesta principalmente a distancias nanométricas y depende de la geometría de los objetos en cuestión. Los MEMS han aportado las herramientas para evaluar estas fuerzas y corroborar las leyes y sus desviaciones en un rango de distancias hasta ahora no explorado.

los sistemas de Cal (MEMS). RF MEMS proporciona una clase de nuevos dispositivos y componentes de visualización de alto desempeño superior de frecuenciamiento con respecto a convencionales (generalmente dispositivos semiconductores), y que permitan a las capacidades del nuevo sistema. Además, MEMS dispositivos están diseñados y fabricados por técnicas similares a los de integración en gran escala, y puede ser fabricado
por lote de los métodos tradicionales de procesamiento. En este documento, el único dispositivo de abordarse es la micro-tal vez la electrostática RF paradigma dispositivo de MEMS. A través de su rendimiento superior características, el micro se está desarrollando en una serie de circuitos y sistemas existentes, incluidos los fines de la radio frente,
los bancos de visitante, y el tiempo de las redes de demora. El rendimiento superior combinado con la disipación de potencia ultra-baja y en gran escala en integración debe habilitar la funcionalidad de este nuevo sistema como así. las posibilidades de abordar aquí son casi la dirección del haz óptico y eléctricamente antenas reconfigurables.

EN 1990 se ha traído un cambio profundo en la radio -
de radiofrecuencia (RF) impulsada por la tecnología en gran medida por los acontecimientos económicos
y los acontecimientos geopolíticos. Por un lado, el viento-abajo de la
de la guerra fría ha reducido la necesidad de sistemas de RF avanzada,
en particular, los sensores, por el otro lado, el amanecer de la
era de la información ha creado un mayor interés y en el mundo
mercado de sistemas de comunicaciones y redes de
de voz y datos por igual. La transición de la tecnología de RF
de una época a la otra ha sido tanto un desafío como
oportunistas. Para los ingenieros de sistemas de RF, que ha significado una
cambio de pensamiento de los grandes sistemas centralizados a los pequeños
los sistemas distribuidos. Junto con este cambio ha llegado un cambio
desde hace tiempo sistemas de gama, con gran potencia de transmisión RF, de
los sistemas de alcance más corto, con un poder de RF relativamente modesto.
En muchos casos, los sistemas más pequeños nuevo debe ser móvil
o de mano. El paradigma de estos nuevos sistemas es la
de red inalámbrica celular que consiste en una base única de gran alcance
la estación de alimentación de una célula local de la mano de conjuntos de actuar como individuo
de terminales o nodos de la red. El celular digital más populares
y el Servicio de Comunicaciones Personales (PCS), las bandas de alrededor de 0,9
y 1,9 GHz, respectivamente, comprenden la mayor parte de la frecuencia de
espectro se utilice con fines celular.

Para los ingenieros de la tecnología, la transición no ha sido menos
desafiante. Los dispositivos de la prima y los componentes anteriormente
necesarios para construir potentes sistemas centralizados no son
requiere más tiempo o ya no puede ser concedida en muchos de los nuevos
los sistemas distribuidos que vienen en línea hoy en día. En cambio, hay
un énfasis en la tecnología más accesible e integrable,
lo que permite un mayor grado de funcionalidad de RF por unidad de
volumen, aunque a un menor nivel de rendimiento que obtiene
con las tecnologías anteriores. Esto ha generado generalizada
de investigación y desarrollo de base de silicio integrados RF cir -
Cuits (RFIC), y la profunda submicrométricas Si CMOS y
Transistores bipolares de heterounión SiGe (HBT's). Teniendo ad -
de vista de la inherente capacidad de fabricación de Si muy grande
integración a gran escala (VLSI), la tecnología ha encontrado RFIC único
de circuito y un subsistema de arquitecturas y fuera de los tradicionales
diseño digital. Un ejemplo de esto es el "sistema RF-on-a -
chip ", como la familia de circuitos integrados (CI), ahora
disponibles comercialmente para los receptores de posicionamiento global.

Este artículo trata de otra tecnología que ha surgido
en los últimos años con un nivel comparable de interés y más
rápido desarrollo de RFIC's. La tecnología es el diseño
y fabricación de sistemas microelectromecánicos (MEMS)
para los circuitos de RF (RF MEMS). De alguna manera, representa MEMS
la nueva revolución de la microelectrónica. Es similar a la VLSI
circuitos en los que permite la ejecución de funciones complejas
en una escala de tamaño de las órdenes de magnitud inferior y en mucho menos
poder que los circuitos discretos. Sin embargo, los MEMS permite que esta
miniaturización en una clase de sensores y transductores que
Tradicionalmente, se construyeron sobre el modelo de una grande, a menudo
transductor engorroso o un sensor acoplado a un gran inte -
circuitos VLSI rallado lectura o el procesador. Un buen ejemplo de
Este es el acelerómetro MEMS, actualmente uno de los más grande
Aplicación de MEMS a través de su incorporación en las bolsas de aire [1].
Al mismo tiempo, aprovecha MEMS VLSI a través del uso
de diseño y metodologías comunes de procesamiento por lotes y de
herramientas. Esta es la comunidad con VLSI que se ha acreditado
en gran medida de la rápida difusión de los MEMS en la
el mercado comercial.


Es importante tener en cuenta desde el principio de que la RF MEMS no
implica necesariamente que el sistema está funcionando micromecánica
en las frecuencias de RF. Como se verá brevemente, en la mayor
la clase de dispositivos de RF MEMS y componentes, la microelectrónica -
operación tromechanical se utiliza simplemente para la actuación  o
de ajuste de un dispositivo de RF o de componente, como un
condensador variable. En muchos de estos dispositivos, una ventaja clave de
de los dispositivos de MEMS en comparación con semiconductores tradicionales
los dispositivos electromecánicos, es el aislamiento. Por esto, queremos decir que
el circuito de RF no se derramen o la pareja de manera significativa a la
circuito de accionamiento. Una segunda ventaja es el consumo de energía.
Muchos de los dispositivos de MEMS de RF en desarrollo llevar a
a cabo de acoplamiento electromecánico electrostática a través del aire (o
de vacío). Por lo tanto, el consumo de energía proviene de dinámica de
corriente que fluye a los MEMS de actuación sólo cuando se está produciendo.
Sin embargo, la aplicación de MEMS de RF no viene
con impunidad. Debido a la mecánica de actuación, se
inherentemente más lento que los interruptores electrónicos. El electromechan -
tiempo de accionamiento de iCal es normalmente microsegundos muchos o mayor,
que es considerablemente más largo que el tiempo eléctrico típico con -
stants en dispositivos semiconductores. Además, RF MEMS de -
vicios pueden presentar el fenómeno de "fricción estática", según el cual las partes
de que el dispositivo puede unidas al contacto físico.

Agustin Egui

CAF

Frecuencia modulada

Frecuencia modulada


Una señal moduladora (la primera) puede transmitirse modulando una onda portadora en AM (la segunda) o FM (la tercera), entre otras.

En telecomunicaciones, la frecuencia modulada (FM) o modulación de frecuencia es una modulación angular que transmite información a través de una onda portadora variando su frecuencia (contrastando esta con la amplitud modulada o modulación de amplitud (AM), en donde la amplitud de la onda es variada mientras que su frecuencia se mantiene constante). En aplicaciones analógicas, la frecuencia instantánea de la señal modulada es proporcional al valor instantáneo de la señal moduladora. Datos digitales pueden ser enviados por el desplazamiento de la onda de frecuencia entre un conjunto de valores discretos, una modulación conocida como FSK.
La frecuencia modulada es usada comúnmente en las radiofrecuencias de muy alta frecuencia por la alta fidelidad de la radiodifusión de la música y el hablaRadio FM). El sonido de la televisión analógica también es difundido por medio de FM. Un formulario de banda estrecha se utiliza para comunicaciones de voz en la radio comercial y en las configuraciones de aficionados. El tipo usado en la radiodifusión FM es generalmente llamado amplia-FM o W-FM (de la siglas en inglés "Wide-FM"). En la radio de dos vías, la banda estrecha o N-FM (de la siglas en inglés "Narrow-FM") es utilizada para ahorrar banda estrecha. Además, se utiliza para enviar señales al espacio. (véase
La frecuencia modulada también se utiliza en las frecuencias intermedias de la mayoría de los sistemas de vídeo analógico, incluyendo VHS, para registrar la luminancia (blanco y negro) de la señal de video. La frecuencia modulada es el único método factible para la grabación de video y para recuperar de la cinta magnética sin la distorsión extrema, como las señales de vídeo con una gran variedad de componentes de frecuencia - de unos pocos hercios a varios megahercios, siendo también demasiado amplia para trabajar con equalisers con la deuda al ruido electrónico debajo de -60 dB. La FM también mantiene la cinta en el nivel de saturación, y, por tanto, actúa como una forma de reducción de ruido del audio, y un simple corrector puede enmascarar variaciones en la salida de la reproducción, y que la captura del efecto de FM elimina a través de impresión y pre-eco. Un piloto de tono continuo, si se añade a la señal - que se hizo en V2000 o video 2000 y muchos formatos de alta banda - puede mantener el temblor mecánico bajo control y ayudar al tiempo de corrección.
Dentro de los avances más importantes que se presentan en las comunicaciones, el mejoramiento de un sistema de transmisión y recepción en características como la relación señal – ruido, sin duda es uno de los más importantes, pues permite una mayor seguridad en las mismas. Es así como el paso de Modulación en Amplitud (A.M.), a la Modulación en Frecuencia (F.M.), establece un importante avance no solo en el mejoramiento que presenta la relación señal ruido, sino también en la mayor resistencia al efecto del desvanecimiento y a la interferencia, tan comunes en A.M.
La frecuencia modulada también se utiliza en las frecuencias de audio para sintetizar sonido. Está técnica, conocida como síntesis FM, fue popularizada a principios de los sintetizadores digitales y se convirtió en una característica estándar para varias generaciones de tarjetas de sonido de computadoras personales.

Aplicaciones en radio

Dentro de las aplicaciones de F.M. se encuentra la radio, en donde los receptores emplean un detector de FM y exhiben un fenómeno llamado efecto de captura, en donde el sintonizador es capaz de recibir la señal más fuerte de las que transmiten en la misma frecuencia. Sin embargo, la falta de selectividad por las desviaciones de frecuencia causa que una señal sea repentinamente tomada por otra de un canal adyacente. Otra de las características que presenta F.M., es la de poder transmitir señales estereofónicas, y entre otras de sus aplicaciones se encuentran la televisión, como sub-portadora de sonido; en micrófonos inalámbricos; y como ayuda en navegación aérea.

Un ejemplo de modulación de frecuencia. El diagrama superior muestra la señal moduladora superpuestas a la onda portadora. El diagrama inferior muestra la señal modulada resultante.
Edwin Armstrong presentó su estudio: "Un Método de reducción de Molestias en la Radio Mediante un Sistema de Modulación de Frecuencia", que describió por primera vez a la FM, antes de que la sección neoyorquina del Instituto de Ingenieros de Radio el 6 de noviembre de 1935. El estudio fue publicado en 1936.[1]
La FM de onda larga (W-FM) requiere un mayor ancho de banda que la modulación de amplitud para una señal moduladora equivalente, pero a su vez hace a la señal más resistente al ruido y la interferencia. La modulación de frecuencia es también más resistente al fenómeno del desvanecimiento, muy común en la AM. Por estas razones, la FM fue escogida como el estándar para la transmisión de radio de alta fidelidad, resultando en el término "Radio FM" (aunque por muchos años la BBC la llamó "Radio VHF", ya que la radiodifusión en FM usa una parte importante de la banda VHF).
Los receptores de radio FM emplean un detector para señales FM y exhiben un fenómeno llamado efecto de captura, donde el sintonizador es capaz de recibir la señal más fuerte de las que transmitan en la misma frecuencia. Sin embargo, la desviación de frecuencia o falta de selectividad puede causar que una estación o señal sea repentinamente tomada por otra en un canal adyacente. La desviación de frecuencia generalmente constituyó un problema en receptores viejos o baratos, mientras que la selectividad inadecuada puede afectar a cualquier aparato.
Una señal FM también puede ser usada para transportar una señal estereofónicaFM estéreo) No obstante, esto se hace mediante el uso de multiplexación y demultiplexación antes y después del proceso de la FM. Se compone una señal moduladora (en banda base) con la suma de los dos canales (izquierdo y derecho), y se añande un tono piloto a 19 kHz. Se modula a continuación una señal diferencia de ambos canales a 38 kHz en doble banda lateral, y se le añade a la moduladora anterior. De este modo se consigue compatibilidad con receptores antiguos que no sean estereofónicos, y además la implementación del demodulador es muy sencilla. (vea
Una amplificación de conmutación de frecuencias radiales de alta eficiencia puede ser usada para transmitir señales FM (y otras señales de amplitud constante). Para una fuerza de señal dada (medida en la antena del receptor), los amplificadores de conmutación utilizan menos potencia y cuestan menos que un amplificador lineal. Esto le da a la FM otra ventaja sobre otros esquemas de modulación que requieren amplificadores lineales, como la AM y la QAM.

Otras aplicaciones

La modulación de frecuencia encuentra aplicación en gran cantidad de sistemas de comunicación. Aparte de la FM de radiodifusión, entre 88 y 108 MHz, la separación entre dos canales adyacentes es de 200 kHz y la desviación de frecuencia Δf=75 kHz. la FM se viene utilizando principalmente en las siguientes aplicaciones:
  • Televisión:
    • Subportadora de sonido: La información de sonido modula en frecuencia la subportadora de sonido, que posteriormente se une a las restantes componentes de la señal de TV para modular en AM la portadora del canal correspondiente y se filtra para obtener la banda lateral vestigial. El sonido NICAM es digital y no sigue este proceso.
    • SECAM: El sistema de televisión en color SECAM modula la información de color en FM.
  • Micrófonos inalámbricos: Debido a la mayor insensibilidad ante las interferencias, los micrófonos inalámbricos han venido utilizando la modulación de frecuencia.
  • Ayudas a la navegación aérea. Sistemas como el DVOR (VOR Doppler), simulan una antena giratoria que, efecto Doppler,modula en frecuencia la señal transmitida.

Tecnología

Modulador de FM

La modulación de una portadora sobre FM, aunque se puede realizar de varias formas, resulta un problema delicado debido a que se necesitan dos características contrapuestas: estabilidad de frecuencia y que la señal moduladora varíe la frecuencia. Por ello, la solución simple de aplicar la señal moduladora a un oscilador controlado por tensión (VCO) no es satisfactoria.
  • Modulación del oscilador. En oscilador estable, controlado con un cristal piezoeléctrico, se añade un condensador variable con la señal moduladora (varactor). Eso varía ligeramente la frecuencia del oscilador en función de la señal moduladora. Como la excursión de frecuencia que se consigue no suele ser suficiente, se lleva la señal de salida del oscilador a multiplicadores de frecuencia para alcanzar la frecuencia de radiodifusión elegida.
  • Moduladores de fase. Un modulador de FM se puede modelar exactamente como un modulador de PM con un integrador a la entrada de la señal moduladora.
  • Modulador con PLL. Vuelve a ser el VCO, pero ahora su salida se compara con una frecuencia de referencia para obtener una señal de error, de modo que se tiene una realimentación negativa que minimiza dicho error. La señal de error se filtra para que sea insensible a las variaciones dentro del ancho de banda de la señal moduladora, puesto que estas variaciones son las que modulan la salida del VCO. Este método se ha impuesto con la llegada de los PLL integrados ya que ha pasado de ser el más complejo y costoso a ser muy económico. Presenta otras ventajas, como es poder cambiar de frecuencia para pasar de un canal a otro y mantiene coherentes todas las frecuencias del sistema...

Demodulador de FM

También es más complejo que el de AM. Se utilizan sobre todo dos métodos:
  • Discrimidador reactivo. Se basa en llevar la señal de FM a una reactancia, normalmente bobinas acopladas, de forma que su impedancia varíe con la frecuencia. La señal de salida aparece, entonces, modulada en amplitud y se detecta con un detector de envolvente. Existían vávulas específicas para esta tarea, consistentes en un doble-diodo-triodo. Los dos diodos forman el detector de envolvente y el triodo amplifica la señal, mejorando la relación señal/ruido.
  • Detector con PLL. La señal del PLL proporciona la señal demodulada. Existen muchas variaciones según la aplicación, pero estos detectores suelen estar en circuitos integrados que, además, contienen los amplificadores de RF y frecuencia intermedia. Algunos son una radio de FM completa (TDA7000).

Ecuación Característica

F_{fm}= \cos[w_ct + {\alpha}+ k_f \int f_{(t)} dt]

Ancho de banda

Al contrario que en el caso de Amplitud Modulada, que se concentra en la frecuencia portadora y dos bandas laterales, el ancho de banda de una señal de FM se extiende indefinidamente, cancelándose solamente en ciertos valores de frecuencia discretos. Cuando la señal moduladora es una sinusoide el espectro de potencia que se tiene es discreto y simétrico respecto de la frecuencia de la portadora, la contribución de cada frecuencia al espectro de la señal modulada tiene que ver con las funciones de Bessel de primera especie Jn.
A través de la regla de Carson es posible determinar el ancho de banda que se requiere para transmitir una señal modulada en FM (o PM).
Agustin Egui
CAF

La convección

La convección es una de las tres formas de transferencia de calor y se caracteriza porque se produce por intermedio de un fluido (aire, agua) que transporta el calor entre zonas con diferentes temperaturas. La convección se produce únicamente por medio de materiales fluidos. Éstos, al calentarse, aumentan de volumen y, por lo tanto, su densidad disminuye y ascienden desplazando el fluido que se encuentra en la parte superior y que está a menor temperatura. Lo que se llama convección en sí, es el transporte de calor por medio de las corrientes ascendente y descendente del fluido.
La transferencia de calor implica el transporte de calor en un volumen y la mezcla de elementos macroscópicos de porciones calientes y frías de un gaslíquido. Se incluye también el intercambio de energía entre una superficie sólida y un fluido o por medio de una bomba, un ventilador u otro dispositivo mecánico (convección mecánica, forzada o asistida). o un
En la transferencia de calor libre o natural un fluido es más caliente o más frío y en contacto con una superficie sólida, causa una circulación debido a las diferencias de densidades que resultan del gradiente de temperaturas en el fluido.
La transferencia de calor por convección se expresa con la Ley del Enfriamiento de Newton:

\frac {dQ} {dt} = h A_{s} ( T_{s} - T_{\inf} )
Donde h es el coeficiente de conveccióncoeficiente de película), As es el área del cuerpo en contacto con el fluido, Ts es la temperatura en la superficie del cuerpo y T_{\inf} es la temperatura del fluido lejos del cuerpo.

La convección en la atmósfera

La convección en la atmósfera terrestre involucra la transferencia de enormes cantidades del calor absorbido por el agua. Forma nubes de gran desarrollo vertical (por ejemplo, cúmulos congestus y, sobre todo, cumulonimbos, que son los tipos de nubes que alcanzan mayor desarrollo vertical). Estas nubes son las típicas portadoras de tormentas eléctricas y de grandes chaparrones. Al alcanzar una altura muy grande (por ejemplo, unos 12 ó 14 km y enfriarse violentamente, pueden producir tormentas de granizo, ya que las gotas de lluvia se van congelando al ascender violentamente y luego se precipitan al suelo ya en estado sólido. Pueden tener forma de un hongo asimétrico de gran tamaño; y a veces se forma en este tipo de nubes una estela que semeja una especie de yunque (anvil's head, como se conoce en inglés).
El proceso que origina la convección en el seno de la atmósfera es sumamente importante y genera una serie de fenómenos fundamentales en la explicación de los vientos y en la formación de nubes, vaguadas, ciclones, anticiclones, precipitaciones, etc. Todos los procesos y mecanismos de convección del calor atmosférico obedecen a las leyes físicas de la Termodinámica. De estos procesos es fundamental el que explica el ciclo del agua en la Naturaleza o ciclo hidrológico. Casi todos los fenómenos antes nombrados, tienen que ver con este último mecanismo.
También se denomina ciclo hidrológico al recorrido del agua en la atmósfera por la capacidad que tiene el agua de absorber calor y cederlo gracias a la capacidad que tiene de transformarse de un estado físico a otro. A grandes rasgos, el ciclo hidrológico funciona de la siguiente manera: los rayos solares calientan las superficies de las aguas marinas y terrestres las cuales, al absorber ese calor, pasan del estado líquido al gaseoso en forma de vapor de agua. El vapor asciende hasta cierta altura y al hacerlo, pierde calor, se condensa y forma las nubes, que están constituidas por gotas de agua muy pequeñas que se mantienen en suspensión a determinada altura. Cuando esta condensación se acelera, por el propio ascenso de la masa de nubes (convección), se forman nubes de mayor desarrollo vertical, con lo que las gotas aumentan de tamaño y forman las precipitaciones, que pueden ser tanto sólidas (nieve, granizo) como acuosas (lluvia), dependiendo de la temperatura. Estas precipitaciones pueden caer tanto en el mar como en las tierras emergidas. Por último, parte del agua que se precipita en los continentes e islas pasa de nuevo a la atmósfera por evaporación o produce corrientes fluviales que llevan de nuevo gran parte de las aguas terrestres a los mares y océanos, con lo que se cierra el ciclo, el cual vuelve a repetirse.

Comportamiento de un fluido cualquiera en la transferencia de calor

Cuando un fluido cede calor sus moléculas se desaceleran por lo cual su temperatura disminuye y su densidad aumenta siendo atraída sus moléculas por la gravedad de la tierra.
Cuando el fluido absorbe calor sus moléculas se aceleran por lo cual su temperatura aumenta y su densidad disminuye haciéndolo más liviano.
El fluido más frío tiende a bajar y ocupa el nivel más bajo de la vertical y los fluidos más calientes son desplazados al nivel más alto, creándose así los vientos de la tierra.
La transferencia térmica convectiva consiste en el contacto del fluido con una temperatura inicial con otro elemento o material con una temperatura diferente, en función de la variación de las temperaturas van a variar las cargas energéticas moleculares del fluido y los elementos inter actuantes del sistema realizaran un trabajo, donde el que tiene mayor energía o temperatura se la cederá al que tiene menos temperatura esta transferencia térmica se realizara hasta que los dos tengan igual temperatura, mientras se realiza el proceso las moléculas con menor densidad tenderán a subir y las de mayor densidad bajaran de nivel.

Movimiento por convección.

Convección aire en un hornillo.

Agustin Egui
CAF


EL ATOMO

HISTORIA Y EVOLUCIÓN
DEL ATOMO:

Teoría de la materia de Aristóteles. La alquimia
La ciencia griega surgió con las especulaciones lógicas de los filósofos griegos sobre el mundo físico, en lugar de confiar en los mitos para explicar los fenómenos. Aristóteles creía que todos los cuerpos tenían como base común la materia prima. Además, puesto que la materia era infinitamente divisible, negó la existencia de átomos y espacio vacío entre ellos.
Aceptó la teoría de los cuatro elementos: tierra, agua, aire y fuego, que amplió con cuatro cualidades elementales: caliente, frío, seco y húmedo ( el agua es fría y húmeda, el fuego caliente y seco, etc.). Esos elementos con sus cualidades se combinaban en diferentes proporciones dando lugar a la variedad de los cuerpos materiales. Puesto que era posible cambiar las cantidades de cada cualidad en un elemento, se podía transformar un elemento en otro (variando la forma, ya que la materia prima no cambia nunca); así, se pensaba que era posible cambiar las sustancias materiales formadas por los elementos, por ejemplo, el plomo en oro.
De esta manera surgen las teorías sobre la transmutación , que posteriormente siguieron los alquimistas, los cuales, respaldados por la idea aristotélica de que los metales de la Tierra tendían a ser cada vez más perfectos y a convertirse gradualmente en oro, creían que podían realizar el mismo proceso más rápidamente en sus talleres, transmutando así de forma artificial los metales comunes en oro. Para ayudar a la transmutación se trató de conseguir la llamada "piedra filosofal", sustancia misteriosa que se buscó incansablemente e incentivo para estudiar los procesos químicos, porque podrían conducirlos no sólo a la riqueza, sino a la salud. La alquimia nació a principios de nuestra era en Alejandría, y aunque nunca consiguió sus propósitos, en la búsqueda de la perfección de los metales se descubrieron muchos procesos químicos, por lo que hoy es considerada como el antecedente de la química.


Leyes de las reacciones químicas

Las teorías establecidas no eran verdaderas, pues la evolución de la ciencia consiste en la sustitución de unas teorías por otras que se adecuan a los hechos. El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a especular sobre él.
Con la llegada de la ciencia experimental en los siglos XVI y XVII, los avances en la teoría atómica se hicieron más rápidos.
Hasta la segunda mitad del siglo XVIII, los alquimistas efectuaban experimento, dibujaban los aparatos utilizados y explicaban detalladamente las técnicas experimentales; sin embargo, estaban desprovistos de leyes que permitieran un estudio organizado y reproducible de los procesos químicos.
Ley de conservación de la masa
La combustión,  uno de los grandes problemas de la química del siglo XVIII, despertó el interés de Lavoiser. Comprobó que al calentar metales como el estaño en recipientes cerrados con una cantidad limitada de aire, estos se oxidaban hasta un momento determinado en que ésta no avanzaba más. Si se pesaba el conjunto después del calentamiento, el resultado era igual al peso antes de comenzar el proceso. Si el metal había ganado peso al calcinarse, era evidente que algo del recipiente debía haber perdido la misma cantidad de masa. Ese algo era el aire. Por tanto, Lavoiser demostró que la calcinación de un metal no era el resultado de la pérdida del misterioso flogisto (sustancia imponderable, misteriosa, que formaba parte de los cuerpos combustibles), sino la ganancia de algo muy material: una parte de aire (oxigeno).
Como al pesar estamos midiendo también masas, ya que el peso de cualquier cuerpo es proporcional a su masa (), puede enunciarse la ley con mas propiedad de la siguiente manera:
"En toda reacción química la masa se conserva, es decir, la masa total de los reactivos es igual a la masa total de los productos"
Ley de las proporciones definidas
Dicha ley se le atribuye a Proust por la defensa que hizo de ella frente a su compatriota Berthollet, quien creía que la composición de un compuesto variaba según el método por el que se había preparado. En 1801, Proust, siguiendo la técnica de Lavoisier, comprobó y estableció que en las reacciones químicas se cumple la ley de las proporciones definidas, ya que en los reactivos no reacciona todo con todo, sino que la relación en peso en que los elementos se combinan para formar los productos será siempre la misma, cualesquiera que sean sus cantidades iniciales. Su enunciado es:
"Cuando dos o más elementos se combinan para formar un compuesto, lo hacen siempre en una relación de masas constante"
Ley de las proporciones múltiples
En 1803, Dalton estudió la forma en que los diversos elementos se combinan entre sí para formar compuestos químicos, anunciando la ley de las proporciones múltiples, deducida de modo inmediato de la teoría atómica.
"Cuando dos o más elementos reaccionan pudiendo dar dos (o más) compuestos diferentes, las masas de uno de los elementos, que reaccionan con una misma masa del otro. Guardan una relación que viene dada por un número sencillo"
Teoría atómica de Dalton

En 1808, Dalton enunció su teoría atómica para explicar las leyes de las reacciones químicas, según la cual:
1.-La materia está formada por partículas muy pequeñas llamadas átomos, que son indivisibles y no se pueden destruir.
2.-Los átomos de un mismo elemento son iguales entre sí, tienen su propio peso y cualidades propias. Los átomos de los diferentes elementos tienen pesos diferentes.
3.-Los átomos permanecen sin división, aún cuando se combinen en las reacciones químicas.
4.-Los átomos, al combinarse para formar compuestos guardan relaciones simples.
5.- Los átomos de elementos diferentes se pueden combinar en proporciones distintas y formar mas de un compuesto.
6.-Los compuestos químicos se forman al unirse átomos de dos o más elementos distintos.
A pesar de grandes aciertos, dicha teoría se vio en graves dificultades ya que afirmaba que los compuestos estaban formados por átomos de elementos en una relación constante y sencilla, pero, puesto que dicha relación numérica (formula) era imposible de calcular, Dalton supuso que era la mas simple posible (agua HO, amoniaco NH etc.). Este principio de simplicidad le condujo a otra dificultad, ya que las ultimas partículas de los elementos gaseosos debían ser átomos sueltos y a Dalton le resultaba inconcebible que éstas pudieran ser divisibles (biatómicas).
La hipótesis de Abogador fue rechazada, puesto que afirmaba justo lo anterior, partículas (moléculas) biatómicas. A las ideas de Dalton se unió también Berzelius, ya que según su teoría electroquímica, toda unión química se explicaba por cargas eléctricas opuestas, lo que no era el caso de átomos iguales, y por tanto era imposible que éstos pudieran unirse.

Ley de Avogadro

Poco más tarde de ser enunciada la teoría atómica, Gay Lussac hallo que los volúmenes de los gases que intervenían en una reacción química estaban en una relación entera sencilla (ley de Gay Lussac).
En 1811, Avogadro trató de explicar dicha ley dentro de la teoría atómica, suponiendo que "a igualdad de presión y temperatura, hay el mismo número de moléculas por unidad de volumen en todos los gases", pero para explicar totalmente los resultados de Gay Lussac, Avogadro supuso, además, que las moléculas de los gases elementales son diatómicas, y no monoatómicas como la teoría atómica de Dalton había creído.
Dalton rechazó los resultados de Gay Lussac, pero actualmente se reconoce que los datos de Dalton eran defectuosos. A pesar de esto subyace una disputa teórica sobre cuál es la estructura de un gas, ya que, según Dalton, las partículas de un gas, rodeadas de una atmósfera de calórico ("sustancia del calor"), estaban en contacto unas con otras, por lo que en un mismo volumen habría tantas más partículas cuanto menor fuera el tamaño de estas. De ahí que se opusiera a la ley de Gay Lussac que insinuaba lo que poco más tarde Avogadro afirmaría: volúmenes iguales de gases podían contener el mismo número de partículas.
Según Avogadro, las partículas de un gas, rodeadas de una atmósfera muy delgada de calórico, estaban muy separadas por lo que el volumen que ocupaban era una fracción despreciable frente al volumen total del gas. Con el modelo de Avogadro se explicaba que un conjunto de moléculas grandes pudiera ocupar el mismo que otro conjunto, de igual número, de moléculas pequeñas. Dicha idea fue esencial para la teoría cinético-molecular desarrollada a partir del siglo XIX.


Teoría cinético-molecular

La teoría cinético-molecular surge en la segunda mitad del siglo XIX y propone cuál puede ser la estructura de los gases.
Las moléculas que forman un gas, independientemente unas de otras, se encuentran en movimiento continuo al azar y regido por leyes estadísticas; además, si ningún obstáculo se opone a dicho movimiento, el gas se expande hasta un volumen prácticamente infinito.
La presión que ejerce el gas se explica como resultado de los incesantes choques (elásticos) contra las paredes del recipiente, y aumenta con el número de moléculas que golpean las paredes y la energía cinética de éstas.
La temperatura del gas depende de la rapidez con que se mueven sus moléculas. De los cálculos de la teoría se deduce que existe una relación simple entre la energía cinética media de las moléculas de un gas y su temperatura absoluta: (A=cte). De dicha formula se deduce que, cuando T=0, , es decir, que a 0ºK el movimiento molecular de traslación cesa por completo, de aquí el significado profundo del cero absoluto.
En un sólido, las partículas están en contacto unas con otras y ordenadas, pero se encuentran oscilando alrededor de posiciones concretas..
En un líquido, las partículas están en contacto unas con otras y desordenadas, pero poseen mayor libertad de movimiento que un sólido puesto que las fuerzas de atractivas o de cohesión se contraponen a una agitación térmica más intensa.
Los puntos de fusión y ebullición de una sustancia son una medida de la intensidad de las fuerzas de atracción entre sus partículas, Si son pequeñas, los puntos de fusión y ebullición son bajos, pues basta con una baja temperatura para que el sólido se funda o el líquido hierva.
Las disoluciones también se explican por la teoría cinética ya que las moléculas de soluto actúan en cierto modo como las de un gas, encerradas en un volumen igual de la disolución.

Divisibilidad del átomo y modelo atómico de Thomson

No había pasado ni un siglo cuando la idea básica de Dalton de un átomo simple e indivisible hubo de cambiarse. Aunque en el s.XIX se conocieron hechos que sugerían esta idea, como los experimentos de Faraday sobre la electrólisis y la clasificación periódica de los elementos, las pruebas mas evidentes llegaron en los últimos años del siglo: el átomo era divisible y poseía naturaleza eléctrica.
Dichas conclusiones surgieron del estudio de las descargas eléctricas en los tubos de vacío. Los científicos que estudiaban estos fenómenos en la segunda mitad del siglo XIX observaron una fluorescencia en la pared del tubo opuesta al cátodo y supusieron que era producida por una radiación invisible que salía de este (rayos catódicos) que, como pronto se supo, estaban constituidos por partículas cargadas negativamente. En 1897, Thomson comprobó, al medir la relación entre carga y masa de dichas partículas, que los componentes de los rayos catódicos no eran átomos con carga, sino partículas nuevas resultantes de la fragmentación del átomo: los electrones.
A partir de esto, pensó que el átomo debía contener también electricidad positiva, y puesto que los electrones son tan ligeros, la mayor parte de la masa del átomo estaría asociada con la electricidad positiva, por lo que esta debía ocupar la mayor parte del volumen atómico.
Así, Thomson imaginó el átomo como una esfera material de electricidad positiva dentro de la cual se encontrarían los electrones, como pequeños gránulos, en número suficiente para que el conjunto resultara neutro.

Modelo atómico de Rutherford

En 1911, Rutherford descubrió que el átomo poseía un núcleo central. La totalidad de la carga positiva se hallaba concentrada en dicho núcleo, y los electrones giraban alrededor para no caer sobre él por atracción eléctrica. Llegó a esta conclusión mientras investigaba la difusión de partículas alfa por la materia haciendo incidir un haz de partículas alfa de alta energía sobre láminas metálicas delgadas. Al hacer esto se observo una mancha fluorescente en línea con el haz, y además, centelleos laterales que indicaban que algunas partículas sufrían desviaciones considerables e incluso podían rebotar en la lámina y salir hacia atrás. Este hecho solo era explicable por el choque de algunas partículas alfa contra una partícula de gran masa y elevada carga positiva, lo que hizo suponer a Thomson que toda la carga positiva del átomo estaba concentrada en un pequeño gránulo donde residía, además, la casi totalidad de su masa, el núcleo. Además el átomo estaba prácticamente hueco como indicaban los datos experimentales.
Este modelo tenía un problema obvio: las cargas eléctricas girando alrededor del núcleo debían tener una aceleración producida por este movimiento circular y, por lo tanto, deberían emitir radiación y perder energía hasta caer en el núcleo. Dicho en otras palabras, el modelo era inestable desde el punto de vista de las leyes electromagnéticas clásicas.


Modelo atómico de Bohr y mecánica cuántica

La luz visible es una porción pequeña de la gama completa de ondas electromagnéticas que comprende. Cada una, se caracteriza por un determinado valor de la frecuencia () o de la longitud de onda (). Desde principios del siglo XX y gracias a los trabajos de Einstein, sabemos que la luz puede ser concebida, además de cómo una onda, como un chorro de partículas llamadas fotones (ecuación de Planck:). El espectro consiste en un conjunto de líneas paralelas, que corresponden cada una a una longitud de onda. Cada elemento tiene un espectro característico; por tanto, un modelo atómico debería ser capaz de justificar el espectro de cada elemento.
En 1913, Bohr planteó tres postulados:
1.-El electrón gira alrededor del núcleo en determinadas órbitas circulares (orbitas estacionarias) sin perder energía en forma de radiación.
2.-Las órbitas posibles son aquellas en las que el electrón tiene un momento angular múltiplo entero de . Así, el Segundo Postulado nos indica que el electrón no puede estar a cualquier distancia del núcleo, sino que sólo hay unas pocas órbitas posibles, las cuales vienen definidas por los valores permitidos para un parámetro que se denomina número cuántico, n.
3.-La energía liberada al caer el electrón a una órbita de menor energía (más próxima al núcleo) se emite en forma de fotón, cuya frecuencia viene dada por la ecuación de Planck. Así, cuando el átomo absorbe (o emite) una radiación, el electrón pasa a una órbita de mayor (o menor) energía, y la diferencia entre ambas órbitas se corresponderá con una línea del espectro de absorción (o de emisión).
El modelo de Bohr tuvo una serie de fallos, ya que aunque era capaz de justificar el espectro visible del hidrógeno, pronto surgieron dificultades; por tal motivo, Sommerfeld (1916) perfeccionó el modelo de Bohr, considerando que las órbitas podían ser también elípticas. No obstante, el modelo atómico de Bohr-Sommerfeld solo pudo ser aplicado al átomo de hidrógeno y a iones con un solo electrón. Otro De los fallos del modelo de Bohr fue que sus postulados suponían una mezcla un tanto confusa de mecánica clásica y mecánica cuántica.
En 1924 Louis De Broglie, fue quien sugirió que los electrones tenían tanto propiedades de ondas, como propiedades de partículas, esta propuesta constituyó la base de la mecánica cuántica.
A consecuencia de este comportamiento dual de los electrones (como onda y como partícula), surgió el principio enunciado por Heisenberg o Principio de incertidumbre en 1927, que dice que es imposible determinar simultáneamente y con exactitud, la posición y la velocidad del electrón, ya que cuanto más exacta es la medida de la posición de un electrón, más grande es la incertidumbre con respecto a su velocidad, y viceversa, y puesto que ambas magnitudes son necesarias para predecir la trayectoria de una partícula, es imposible conocer la trayectoria de un electrón. Para solucionar este problema surge un nuevo concepto, el orbital atómico o región del espacio alrededor del núcleo donde hay la máxima probabilidad de encontrar el electrón

En la filosofía de la antigua Grecia la palabra "átomo" se empleaba para referirse a la parte más pequeña de materia que podía concebirse y era considerada indestructible. De hecho, átomo significa en griego "no divisible". El conocimiento del tamaño y la naturaleza del átomo avanzó muy lentamente a lo largo de los siglos, ya que los estudiosos solo se limitaban a especular sobre él.
Con la llegada de la ciencia experimental en los siglos XVI y XVII, los avances en la teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos o elementos. Por ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en una unión íntima conocida como enlace químico. El aire, en cambio, resultó ser una mezcla de los gases nitrógeno y oxígeno.
¿Sabías que?
Un átomo es tan pequeño que una sola gota de agua contiene más de mil trillones de átomos.
Ahora ya conocemos qué es un átomo; pero ¿habrá sido fácil hablar de átomo en la Antigüedad? Pongámonos en el lugar de aquellas personas que comenzaron a formular
 estos conceptos.
Los estudiosos de este campo desarrollaron sus primeros conceptos empleando teorías, las que constituían propuestas acerca de cómo concebir un hecho. Por ejemplo,
 antiguamente, para hablar de átomo se tenía que hacer una serie de propuestas del tipo especulativas. Así, se entendía que un hombre de ciencias planteaba una teoría sobre el átomo, explicando su concepto y formulando, también, un par de otras ideas importantes. Con el correr de los siglos y el uso del método científico las teorías se han transformado en hechos y acontecimientos de importancia histórica.
Todo empieza con el átomo


Varios siglos antes de Cristo, ya se proponían diferentes explicaciones sobre la constitución de la materia. Se hablaba de las partículas
como granos, a los cuales se llamaba átomos. Según los científicos de la época, el átomo era lo más pequeño que constituía la materia y era indivisible.
En 1809, el físico inglés Juan Dalton (1766-1844) dio a conocer la primera Teoría Atómica. En ella describía en forma científica la constitución de
 la materia. Para Dalton, los átomos eran una esfera compacta y no contenían ninguna partícula en su interior.
¿Era correcto esto? Definitivamente no. Tanto así, que a principios del siglo XX se modificó bastante dicha teoría.
Se determinó que en el interior de los átomos hay partículas, que otorgan a éste una estructura interna. También, se determinó que el átomo podía ser divisible.
  • Estructura
Todo átomo está formado por dos partes, que son:
a) Núcleo atómico: corresponde a la zona central. En él se encuentra la mayor masa del átomo.
b) Corteza atómica: corresponde a la zona que rodea al núcleo. Es la parte más voluminosa del átomo.
  • Partículas sub-atómicas
¿Existe algo más? Sí. Tanto en el núcleo como en la corteza se ubican varias partículas muy pequeñas; son las llamadas partículas sub-atómicas.
Existen 3 tipos de partículas sub-atómicas.


Agustin Egui

CAF