miércoles, 28 de diciembre de 2016

Permeando estructuras

La American Physical Society (APS) es la sociedad que nuclea a los físicos estadounidenses. Es responsable de la línea de revistas Physical Review, que gozan de un mucho impacto internacional en la disciplina. En una presentación hecha en la reunión anual de APS (edición 2006 [1]), el Dr. David G. Seiler del National Institute of Standards and Technology (NIST) cuenta la inserción de los físicos en la administración federal estadounidense:

Sirva esto como prototipo para discutir la presencia científica en la administración pública. La doctrina tradicional argentina trata al sistema científico como algo a verse disjunto del todo. La inserción de científicos en la industria en general no dista mucho de la inserción de científicos en los demás ministerios. En la primera no se da (no para ejercer actividad científica, al menos) y en la segunda en general tampoco. 

Si efectivamente vamos hacia la meta de ingresar a la Organización para la Cooperación y el Desarrollo Económicos (OCDE) [2], tarde o temprano deberemos cumplir con metas concretas como la inversión del orden del 2% de del PBI en investigación y desarrollo [3]. Según la misma OCDE, en 2014 la Argentina destinó el 0,61 % de su PBI en dicho rubro (último dato, y con muchas advertencias sobre su confiabilidad por emanar de estadísticas públicas de la época). Cómo se repartirá esa inversión a futuro en virtud de la meta entre los sectores público y privado será un tema arduo, por ponerlo de una manera elegante. 

Para no asomarnos al poco virtuoso proceso de duplicación de funciones gubernamentales, ¿existen organizaciones argentinas con la capacidad de localizar los lugares de la administración pública donde podrían insertarse científicos para trabajar productivamente de científicos y no de meros burócratas? Hay varias. El Consejo Interistitucional de Ciencia y Tecnología (http://www.cicyt.mincyt.gob.ar/ ) es un organismo que coordina entre muchas instituciones de ciencia y tenología. En particular el Gabinete Científico Tecnológico (GACTEC) (http://www.mincyt.gob.ar/ministerio/gabinete-cientifico-tecnologico-gactec-15) tiene el carácter de ámbito interministerial con representantes de todos los ministerios. En este último es donde debiera darse naturalmente la demanda de personal científico para encarar problemas de la administración pública. Por ejemplo, las tradicionales becas también se pueden articular con los ministerios de manera de proponer como tema de estudio los problemas científicos de cada dependencia y así ahorrar fortunas en contrataciones a consultoras, por ejemplo. Los problemas regionales y la transferencia de conocimientos también tienen un organismo coordinador: el Consejo Federal de Ciencia y Tecnología (CoFeCyT) (http://www.cofecyt.mincyt.gob.ar/).

En todo caso, debe haber mucha más permeabilidad entre las estructuras gubernamentales en general. En particular, entre éstas y el sistema científico. Casualmente, Samuel Goudsmit fue el primer editor de Physical Review Letters y entre otras cosas advirtió esto en la posguerra de 1947 [4]:
"Una de las principales tareas de los administradores de la investigación es llevar los resultados obtenidos por los científicos a la consideración de las agencias gubernamentales apropiadas. Como contraparte, deben interiorizar a los científicos sobre los problemas cuyas soluciones serían de utilidad para la Armada, Marina, Fuerza Aérea, u otra agencia para tiempos de guerra o de paz."
Ahora bien, todas estas iniciativas se vierten sobre la parte aplicada del quehacer científico. También Goudsmit nos advierte que bajo ningún motivo debemos desestimar u olvidar la ciencia básica (la que se hace sin aplicación en mente) [4]:
"De nuevo, nosotros no tenemos un dogma nazi operando para hacer que la ciencia abstracta, "no-aria", se haga impopular entre los estudiantes. Sin embargo, la ciencia de "pelo largo" siempre ha tenido cierta  mala fama entre los estudiantes americanos, resultando en que el número que elige ciencias puras como carrera sigue siendo muy pequeño. El ideal sostenido por la juventud americana es un hombre como Edison, mientras que para gran pionero como Josiah Willard Gibbs, de Yale, sus investigaciones teóricas en los 1870s fundaron una nueva rama de la ciencia química y sin embargo son prácticamente desconocidas. Las conquistas actuales de la química e ingeniería química modernas son inconcebibles sin la visión de Gibbs. 
Desde la bomba atómica ha habido un aumento en el número de estudiantes de física. Pero cuando el glamour de lo nuevo se pase este número con toda probabilidad va a decrecer. Una ayuda para remediar estos problemas sería mayor nivel de salario y un aumento de prestigio de los profesores, junto con la popularización, a nivel de escuelas secundarias, del valor de la ciencia pura."

Referencias

[1] David G. Seiler, Government Jobs for Physicists: Believe It or Not –Challenging and Satisfying!, Presented at the March American Physical Society Meeting March 15, 2006 http://www.aps.org/meetings/multimedia/upload/Government_Positions_for_Physicists.pdf
[2] Presidencia de la Nación, República Argentina, Objetivos de gobierno (VIII.97), http://www.casarosada.gob.ar/objetivosdegobierno/
[3] Organización para la Cooperación y el Desarrollo Económicos (OCDE), Main Science and Technology Indicators (June 2016). http://www.oecd.org/sti/msti.htm
[4] Samuel Goudsmit, Alsos (AIP Press, 1996).


domingo, 4 de diciembre de 2016

Estadismo y desestadismo

1. El estadismo

El libro El triunfo de los números [1] es texto corto cuya lectura es recomendable y verdaderamente incendiaria, en particular para un argentino en los años 2014-15. Allí Ierome Bernard Cohen detalla el proceso mediante el cual la construcción misma del estado-nación moderno está íntimamente relacionado con el conocimiento cuantitativo de la realidad. La interpretación de la misma puede venir después, pero la fase descriptiva es inevitable e indispensable para el desarrollo sostenible de una sociedad. Así, un estadista en el sentido político es definible no como quien sobrelleva hábilmente determinada coyuntura, sino quien tiene un conocimiento acabado de los recursos y necesidades en su jurisdicción y que los administra en pos del bienestar general de la población existente y de la población por venir. Ya en 1799, en la génesis del término estadística, Sir John Sinclair opina en su relevamiento del estado de Escocia en números [2]:

“(...) la idea con la que vinculo yo el término es un estudio del estado de un país con el propósito de determinar la cantidad de felicidad de la que gozan sus habitantes y los medios para mejorarla en el futuro”.
La estadística como herramienta más bien debió imponerse por sus beneficios para las sociedades contemporáneas. Adolphe Quetelet, en el siglo XIX, fue uno de sus más grandes campeones. A lo largo de su carrera desplegó herramientas del campo de las ciencias naturales (él venía de la astronomía y las matemáticas) al campo del conocimiento social: la física social [3,4]. Si bien actualmente no es muy recordado, aún hoy aludimos a sus ideas cuando empleamos, por ejemplo, el término “hombre promedio” [5]. Afortunadamente, fueron buenos los oídos que lo escucharon: fue profesor particular de matemáticas de Albrecht August Karl Emanuel von Sachsen-Coburg und Gotha, quien más tarde sería conocido como Albert, Príncipe Consorte de la Reina Victora del Reino Unido de Gran Bretaña e Irlanda. La concepción estadística de Quetelet iba incluso más allá de los problemas gubernamentales, puesto que pudo establecer un tratamiento matemático de una gran cantidad de temas de la sociedad. La extensa obra de Quetelet, junto con la visión favorable que Albert y Victoria tuvieron sobre el tema redundó en avances cuantitativos para su reino.
Las herramientas desarrolladas por Quetelet a su vez volvieron a manos de los físicos (Maxwell y Boltzmann, por ejemplo), quienes desarrollaron en base a ellas la Mecánica Estadística, una parte fundamental de la Física moderna. Florence Nightingale merece un artículo aparte, pero nos bastará con decir que haciendo un análisis estadístico lideró una reforma y mejora sanitaria pocas veces vista. El procesamiento de datos también influyó en el trabajo de Charles Babbage, precursor de la computación moderna.
Adolphe Quételet

2. El camino inverso: el desestadismo

Hasta el Renacimiento la Filosofía en su rama Natural era capaz de describir le realidad e interpretarla (con las herramientas de la época, claro está). En 1610 Galileo publica sus observaciones astronómicas hechas con la ayuda del telescopio. En 1665 Robert Hooke observa las células por primera vez e inicia el camino de la Biología moderna. En 1687 Isaac Newton publica Philosophiæ Naturalis Principia Mathematica (Principios matemáticos de la Filosofía Natural) le amputa la Física a la Filosofía, además diciendo que el Cálculo es su lenguaje. En 1789 Lavoisier publica su Traité Élémentaire de Chimie (Tratado elemenal de Química) y hace otro tanto al separar la Química.
Los avances en todas las demás ramas de conocimiento (como los vistos en la sección anterior) dejaron a la Filosofía del siglo XX [6] totalmente desprovista de la capacidad de describir la realidad, y sólo con sus intepretaciones (la Estética, la Política, le Ética, etc.). Aún así, los totalitarismos de las más diversos colores del espectro ideológico hicieron uso de la estadística (recuérdese por ejemplo que Corrado Gini -creador del alabado coeficiente de Gini para medir la desigualdad social- fue asesor e íntimo amigo de Benito Mussolini). Los populismos latinoamericanos del siglo XX se reivindicaron a través de sus estadísticas (las que les eran favorables), y aún cuando sus propios números fueran adversos no acostumbraron ir frontalmente contra el sistema estadístico en sí. La configuración de determinado aspecto de un país existía y tenía una magnitud asociada que se podía inflar si convenía o relativizar en el caso contrario.
A principios del siglo XXI, con epicentro en la Argentina se dio rienda suelta a algo tristemente novedoso: desandar el camino del estadismo como lo he explicado en la sección aterior. A este proceso lo llamaré desestadismo: la destrucción de los sistemas de conocimiento cuantitativo en una jurisdicción con el solo fin de producir números agradables al administrador de turno, que éste usará para sus propios fines.
Esta fue una suerte de venganza de la Filosofía inflingida a través de la Política: la realidad no importa, porque la realidad es lo que se dice de ella. Esto implica una supremacía del lenguaje que hace de la realidad su subordinada. A todas luces un disparate de pensamiento mágico [7], pero no todo el mundo lo intepretó así en su momento. Curiosísimo es notar que el mundo de las ciencias naturales argentino fue particularmente tolerante y a veces hasta entusiasta con este fenómeno.
La descripción anterior corre por un plano conceptual, más típico de los aquelarres de los monjes negros de Ciencias Sociales que bendecían el proceso populista, pero poco y nada le importaba a los demoledores activos del sistema estadístico público. A estos muy poco calificados obreros de la destrucción sólo les importaba cumplir con su parte gangster en una dependencia pública [8]:

“Uno de los principales problemas institucionales del INDEC en diciembre de 2015 era que había perdido una importante cantidad de personal técnico y profesional, a pesar de haberse caracterizado durante décadas por contar con recursos humanos especializados y altamente capacitados. Esta sangría se debió en parte a problemas salariales y escasos incentivos laborales. Pero también, y sobre todo, a la desarticulación de las áreas más sensibles en la producción de indicadores, cuando se desplazó a los profesionales más calificados de sus tareas específicas por no mostrarse dóciles frente a directivas contrarias a las buenas prácticas estadísticas. A muchos de ellos se les cambiaron las funciones, se los suspendió o se los despidió. Una porción no menor optó por la renuncia.
(...)
Desde 2011 se incrementó la plantilla de personal en casi un tercio, sin tener en cuenta las necesidades técnicas y profesionales del instituto. El 75% de las nuevas incorporaciones no contaba con estudios terciarios o universitarios. Así, en diciembre de 2015, sólo el 38% del plantel total tenía formación profesional y técnica, en tanto el restante 62% se dividía entre quienes tenían educación secundaria completa e incompleta. En gran parte de las instituciones de estadística de otros países los porcentajes se dan a la inversa.
Las decisiones tomadas por la administración anterior –en cuanto a la modificación de metodologías y procedimientos y, en algunos casos, supresión de mediciones específicas y/o publicaciones– derivaron con el tiempo en desconfianza y falta de credibilidad entre los usuarios calificados que tenían como insumo básico la información publicada. Esa desconfianza se extendió se extendió más tarde al resto de la población que, escéptica de los datos del INDEC, comenzó a usar indicadores alternativos para tomar decisiones. De ahí el crecimiento de las consultoras privadas y los observatorios económicos y sociales de universidades, gremios y organismos no gubernamentales.”
En el mejor de los casos, al ser confrontados los ideólogos del tema, esgrimieron algunos argumentos ya dados antes por Thomas Carlyle y Charles Dickens, aunque sin llegar jamás a los talones literarios de éste último.
El camino del desestadismo local se transitó en muy pocos años, tal vez unos diez, dependiendo de cómo uno catalogue su virulencia o qué episodio en particular se desee destacar. Nótese que muy poco tiempo se requirió desarticular un sistema que tomó mucho tiempo armar (los antecedentes estadísticos en Argentina se remontan a 1894). La reconstrucción tomará un tiempo similar, en el cual tarde o temprano se deberá discutir la contiuidad/discontinuidad administrativa de los números controvertidos Esa discusión es inédita y no es trivial, porque en ese período muchos otros cálculos con impacto social directo fueron hechos en base a esos mismos números: por ejemplo, desde 2009 calcula la variación de las jubilaciones en base a índices de INDEC. La continuidad administrativa implica impunidad, la discontinuidad probablemente implique un colapso judicial por la cantidad de demandas a presentar con un posterior y serio apuro para las cuentas públicas, o tal vez decante alguna decisión creativa. Lo cierto es que el sistema nunca se tendría que haber expuesto a semejante situación.

Referencias

[1] I. Bernard CohenEl triunfo de los números: cómo el cómputo modeló la vida moderna (Alianza Editorial S.A.2008).
[2] Sir John Sinclair, ed., The Statistical Account of Scotland, 1791-1799 (E.P. Publishing1977).
[3] Adolphe QuételetPhysique Sociale: Ou, Essai Sur Le Développement Des Facultés De L'homme, Volume 1 (French Edition) (Nabu Press2010).
[4] Kevin DonnellyAdolphe Quetelet, Social Physics and the Average Men of Science, 1796-1874 (Sci & Culture in the Nineteenth Century) (University of Pittsburgh Press2015).
[5] Lambert Adolphe Jacques QueteletA Treatise on Man and the Development of his Faculties (Cambridge Library Collection - Philosophy) (Cambridge University Press2013).
[6] Juan José SebreliEl malestar de la Política (Sudamericana2012).
[7] Mario BungePseudociencia e ideología (Siglo Veintiuno Editores2014).
[8] Presidencia de la Nación, República Argentina, "El estado del Estado" (2015).


sábado, 4 de mayo de 2013

Errar es humano


Muchas experiencias que se comentan permiten una discusión que suele ser pasada por alto: la del proceso de medición en física. En efecto, muchas veces los alumnos construyen la idea errónea de que todas las mediciones son perfectas, que todos los cálculos de basados en ellas no tienen error, y que las cifras significativas en un resultado son tantas como arroje la calculadora. Un análisis más pormenorizado de este tema se encuentra en las referencias {FernandezGalloni1951} y {TheUncertaintyinPhysicalMeasurements}. Me voy a limitar a dar un muy corto resumen de los conceptos fundamentales para lidiar con las situaciones usuales. Hay varios programas que permiten hacer cálculo de incertezas en medidas indirectas en física y que realizan automáticamente lo explicado en este artículo. Uno gratuito y muy útil es "Uncertainty Calculator'' {UncertaintyCalculator} (http://www.colby.edu/chemistry/PChem/scripts/error.html).

Medir


 Para poder medir una determinada magnitud (muy generalmente una longitud) se elige una unidad y luego se determina el número de veces que está contenida en la primera. Usualmente esto determina la precisión de la medida. En una regla escolar común, es el milímetro la precisión máxima del instrumento puesto que es la menor distancia medible con ella [y estamos omitiendo el tema de la dependencia con la temperatura de la longitud misma de la regla]. Es importante elegir el instrumento de medida más adecuado para la magnitud a medir; por ejemplo una cinta métrica es muchísimo más conveniente que un micrómetro para medir distancias del orden de un metro.
 En la República Argentina las unidades están establecidas en la ley 19.511 (Ley de Metrología). Dicho de manera muy resumida, "metrología" significa "medir bien". Las unidades de dicha ley constituyen el Sistema Métrico Legal Argentino (SIMELA) {Metrologia1972}. Este sistema emplea las unidades, múltiplos y submúltiplos, prefijos y símbolos del Sistema Internacional de Unidades (SI).


Tabla 1: Unidades de base del Sistema Internacional (SI). Los símbolos de las magnitudes se imprimen en bastardilla (caracteres inclinados); los símbolos de las unidades, en redonda (caracteres verticales).

 Para los ángulos el SIMELA dictamina el uso de los radianes (rad), pero delinquiremos un poco permitiendo el sistema sexagesimal de grados, minutos y segundos (aceptado en 1996 en el SI por el Comité International des Poids et Mesures).

Dígitos significativos y redondeo 


Es muy raro en ciencias trabajar con valores exactos, como por ejemplo \(\sqrt{4\mbox{ m}^{2}}=2\mbox{ m}\); en general uno trabaja con valores aproximados. Un ejemplo es el de la velocidad de la luz (\(c\)): su valor exacto por convención es 
 \begin{equation} c=299792458\,\mbox{m/s}\label{eq:c} \end{equation} 
su valor aproximado es 
 \begin{equation} c\simeq300000000\,\mbox{m/s}\label{eq:c_aprox} \end{equation} 
 \begin{equation} c\simeq3\times10^{8}\,\mbox{m/s}\label{eq:c_aprox_corto} \end{equation}

El número de dígitos significativos de un valor numérico se obtiene contando los dígitos de izquierda a derecha, comenzando por el primero distinto de cero. Los ceros a la izquierda de los dígitos significativos sólo son posicionales. Por ejemplo, el número 37,05 tiene 4 dígitos significativos: 3-7-0-5; el número 0,00028 tiene dos dígitos significativos: 2-8. Aún en números enteros con ceros al final pueden haber ambigüedades; las mismas se evitan usando la notación científica. El primer valor de la velocidad de la luz dado más arriba tiene 9 dígitos significativos mientras que segundo es ambiguo por el redondeo; dicha ambigüedad está resuelta en el tercero donde vemos que en realidad la cantidad de dígitos significativos es 1 (el 3). 

Reglas para redondear valores numéricos


 Cuando se debe redondear un número debemos eliminar alguno de los últimos dígitos significativos de acuerdo a las siguientes reglas:


  1. Si el dígito significativo a ser eliminado es 0, 1, 2, 3 ó 4, entonces el anterior a la izquierda se deja sin cambiar. Por ejemplo: 34,12\(\simeq\)34,1. 
  2. Si el dígito significativo a ser eliminado es 6, 7, 8, 9, ó 5 seguido por al menos un dígito distinto de cero a la derecha, entonces el anterior a la izquierda se incrementa el dígito anterior en 1.
    Ejemplos:
    36,17\(\simeq\)36,2.
    101,355\(\simeq\)101,4. 
  3. Si el dígito significativo a ser eliminado es 5 seguido de ceros a la derecha, entonces el anterior a la izquierda se deja como está si es par, y se incrementa en uno si es impar.
    Ejemplos:
    8,45\(\simeq\)8,4.
    8.35\(\simeq\)12,4. 


Redondeos en cálculos


  1. Sumas, restas, multiplicaciones y cocientes: se redondea el resultado para que tenga tantos dígitos significativos como la que menos tenga.
    Ejemplos:
    6,221+1,5+8,42=16,141\(\simeq\)16,1.
    8,54\(\times\)18,6=158,844\(\simeq\)158,8.
    En cocientes a veces es preferible poner un dígito significativo más que lo indicado más arriba. 
  2. Raíces cuadradas: se mantiene el número de dígitos significativos del radicando. Ejemplo: \(\sqrt{2,0}\)=1,414213562...\(\simeq\)1,4. 

La incerteza (antes conocida como "error")


La cantidad de dígitos significativos en una medida viene dada por la incerteza de la misma. Así, si estamos midiendo un valor \(X\), diremos que \(\Delta X\) es la "incerteza de \(X\)". El valor reportado es \[ X\pm\Delta X \] 
 En el caso de instrumentos con una dado intervalo de resolución (lo mínimo medible con el instrumento; los milímetros en una regla escolar, por ejemplo), una elección razonable para \(\Delta X\) es la mitad de ese mínimo medible siempre y cuando no se hayan detectado otras fuentes de error (lectura, sistemáticos, etc.). En el caso de la regla \(\Delta X=0,5\,\mbox{mm}\). 
 Al tomar muchas [más de 10 para que esto tenga validez estadística] \(N\) medidas \(x_{i}\) de la misma magnitud \(X_{0}\), se puede hacer estadística y reportar el promedio de la misma y la desviación estándar de la misma como error (aplicando las mismas reglas de cálculo enunciadas más arriba) según 
\begin{equation} X_{0}=\frac{1}{N}\sum_{i=1}^{N}x_{i}\label{eq:X_0} \end{equation} \

\begin{equation} \Delta X=\sqrt{\frac{1}{N\left(N-1\right)}\sum_{i=1}^{N}\left(x_{i}-X_{0}\right)^{2}}\label{eq:deltaX} \end{equation}
 Aquí se aplican en general dos reglas:


  1. La incerteza \(\Delta X\) no debe expresarse con más que dos dígitos significativos; incluso a veces con uno solo es suficiente. 
  2. Cuando se reporta una medida como \(X_{0}\pm\Delta X\) el último dígito significativo de \(X_{0}\) debe ser del mismo orden de magnitud del último dígito significativo de \(\Delta X\). 

Errores en medidas indirectas

Supongamos que tenemos varias variables independientes entre sí (\(X\), \(Y\), \(Z\),...) medidas directamente cada una, con su incertezas (\(X_{0}\pm\Delta X\), \(Y_{0}\pm\Delta Y\), \(Z_{0}\pm\Delta Z\),...), y que se las combina con alguna ecuación para hallar una magnitud \(Q\). La forma general para encontrar la incerteza \(\Delta Q\) es {TheUncertaintyinPhysicalMeasurements}:
\begin{equation} \Delta Q\simeq\sqrt{\left(\frac{\partial Q}{\partial X}\right)_{X_{0}}^{2}\left(\Delta X\right)^{2}+\left(\frac{\partial Q}{\partial Y}\right)_{Y_{0}}^{2}\left(\Delta Y\right)^{2}+\left(\frac{\partial Q}{\partial Z}\right)_{Z_{0}}^{2}\left(\Delta Z\right)^{2}+\ldots}\label{eq:deltaQ} \end{equation}
donde \(\left(\frac{\partial Q}{\partial X}\right)_{X_{0}}\) indica que la derivada se evalúa en \(X_{0}\), \(\left(\frac{\partial Q}{\partial Y}\right)_{Y_{0}}\) indica que la derivada se evalúa en \(Y_{0}\), etc.

Ejemplo: Hallar la incerteza para el seno y el seno de un ángulo \(\alpha\) (\(Q=\mbox{sen}\left(\alpha\right)\)) en un triángulo si el cateto opuesto mide \(X_{0}\pm\Delta X=\left(3,0\pm0,1\right)\) m y la hipotenusa \(Y_{0}\pm\Delta Y=\left(5,02\pm0,03\right)\) m. 
Solución:
 \begin{eqnarray*} \Delta Q & = & \sqrt{\left(\frac{1}{Y_{0}}\right)^{2}\left(\Delta X\right)^{2}+\left(-\frac{X_{0}}{Y_{0}^{2}}\right)^{2}\left(\Delta Y\right)^{2}}\\ & = & \sqrt{\left(\frac{0,1}{5,02}\frac{\mbox{m}}{\mbox{m}}\right)^{2}+\left(-\frac{3,0\times0,03}{5,02^{2}}\frac{\mbox{m}\times\mbox{m}}{\mbox{m}^{2}}\right)^{2}}\\ & \simeq & \sqrt{\left(0,02\right)^{2}+\left(0,004\right)^{2}}\simeq\sqrt{0,0004+0,000016}\simeq\sqrt{0,0004}\\ & \simeq & 0,02 \end{eqnarray*} \[ Q=\mbox{sen}\left(\alpha\right)=\frac{X_{0}}{Y_{0}}=\frac{3,0}{5,02}\frac{\mbox{m}}{\mbox{m}}=0,5976095...\simeq0,60 \] La magnitud a reportar (adimensional en este caso) es entonces \[ \mbox{sen}\left(\alpha\right)=0,60\pm0,02 \]


 Las incertezas pueden estimular varias reflexiones en clase que pueden ir más allá de reportar un número. Por un lado puede estimular la discusión sobre el sentido de las magnitudes a medir. La longitud de un sólido ya carece de sentido en el orden de las distancias entre átomos (\(\sim10^{-10}\mbox{ m}\)) donde las interfaces se hacen discontínuas. En efecto, lo que nos parece totalmente liso y pulido a simple vista se convierte en una cordillera totalmente irregular a escala muy pequeña. También puede tomarse un mapa de la República Argentina y proponer que se mida su perímetro (cuánto mide su frontera) por saltos de compás de distintas apreturas fijas por cada medida; la noción misma de contorno deja de tener sentido cuando la escala del compás representa unos 100 metros. Quien haya visitado una playa sabrá bien que avance y retroceso del mar sobre la playa es totalmente irregular y cambia constantemente. El estudio de la irregularidad desembocó en un capítulo muy importante de las matemáticas de finales del siglo XX: los fractales {Mandelbrot}. Por otro lado, las incertezas a escala microscópica tienen serios efectos en la mecánica cuántica. El principio de incertidumbre de Heisenberg vincula las incertidumbres de la posición \(x\) y del impulso \(p\) de una partícula [la palabra "partícula" en esta escala tiene un sentido distinto al que le damos a escalas usuales, y ese puede ser otro tema a discutir] {Bes} según: \[ \Delta x\times\Delta p\geq\frac{\hbar}{2} \] donde \(\hbar=1.05\times10^{-34}\mbox{ J s}\) es la constante reducida de Planck. Esto significa que cuanta menos incerteza tengamos sobre dónde está una partícula, más tendremos sobre su impulso (proporcional a la velocidad), y viceversa. La misma relación se cumple para la energía \(E\) y el tiempo \(t\).

Referencias

  • Asimov, I. (1987), Enciclopedia biográfica de ciencia y tecnología, Vol. 1-4, Alianza.
  • Bes, D. (2007), Quantum Mechanics: A Modern and Concise Introductory Course (Advances Texts in Physics), Springer.
  • Fernández, J. S. & Galloni, E. E. (1951), Trabajos prácticos de Física, Centro de estudiantes de Ingeniera de Buenos Aires.
  • Fornasini, P. (2008), The Uncertainty in Physical Measurements: An Introduction to Data Analysis in the Physics Laboratory, Springer.
  • Ganot y Maneuvrier, A. G. (1913), Tratado elemental de Física, Librería de la Vda. de C. Bouret and Librera de Hachette y Cia..
  • Hecht, E. (2001), Optics (4th Edition), Addison Wesley.
  • Hewitt, P. G. (1998), Física Conceptual, Addison Wesley Longman Mxico.
  • Koshkin, N. & Shirkévich, M., Manual de Física elemental, Mir.
  • Kotulski, Z. A. & Szczepinski, W. (2009), Error Analysis with Applications in Engineering (Solid Mechanics and Its Applications), Springer.
  • Loedel, E. (1949), Enseñanza de la Física, Kapelusz.
  • Mandelbrot, B. (2002), La Geometria Fractal De La Naturaleza (Spanish Edition), Tusquets Editores.
  • Menzel, D. H. (1960), Fundamental Formulas of Physics, Vol. 2, Dover Publications.
  • von Reichenbach, M. C.; D'Urso, M. L. & Hara, M. (2002), 'Tebaldo Jorge Ricaldoni: ¿inventor o científico?', Saber y Tiempo, revista de Historia de la ciencia 4(13), 73-93.
  • Richard Manliffe Sutton, E. (1938), Demonstration Experiments in Physics, McGraw Hill Text.
  • Schurmann, P. F. (1946), Historia de la Física, Editorial Nova.
  • Shattuck, T. W., 'Uncertainty Calculator'.
  • Strong, J. (2004), Concepts of Classical Optics, Dover Publications.
  • de Tencología Industrial (INTI), I. N. (1972), 'Metrología: Reglamentación, Decretos, resoluciones y disposiciones'.



domingo, 8 de enero de 2012

Cómo se pudre un canal de ciencia

Columna científica en "Desafinados" (Radio Universidad Nacional de La Plata, AM 1390). Martes 24 de agosto de 2010.

martes, 24 de mayo de 2011

De físicos mal informados y sirenas (pero no de mar)

A un físico promedio le suelen suceder muchas cosas, exactamente al igual que a cualquier otro ser humano.   Me refiero en esta ocasión al hecho de incorporar nociones incompletas o lisa y llanamente erróneas. Las que le suceden en lo que respecta a este artículo son:
  1. Conocer a Hermann Ludwig Ferdinand von Helmholtz (1821-1894) simplemente como "Helmholtz".
  2. Creer que fue físico desde que estaba en el vientre de su madre.
  3. Creer que, en orden de relevancia,
    a) enunció la conservación de la energía
    b) hizo un arreglo de bobinas que garantizan un campo magnético uniforme en el centro
    c) (si estamos tratando con un erudito) hizo un sistema de resonadores acústicos
    d) no hizo absolutamente nada más en su vida.


Hermann Helmholtz

   Pues resulta que Hermann fue un médico que incursionó en temas físicos muy competentemente y de acuerdo con la clasificación moderna, se lo llamaría más bien "médico físico" que "físico médico". Sus contribuciones abarcan la fisiología, la óptica, la electrodinámica, las matemáticas y la meteorología. De hecho, su resultado sobre la conservación de la energía deriva de su estudio sobre los músculos. 

   Buscando material para un evento me encontré con la versión inglesa (1895) de "On the sensations of tone as a physiological basis for the theory of music" ("Sobre las sensaciones del tono como una base fisiológica para la teoría de la música") libro en el que describe toda la fenomenología y apartología para analizar sonidos casi literalmente pedaleando. Es muy interesante desde el punto de vista de la física médica todo el estudio de percepción, afinación, y en especial el análisis de las resonancias del oído interno. Hoy en día el análisis de sonidos está al alcance de cualquiera (y ya no hablo de tener un osciloscopio, sino una computadora personal). Sin una pc Helmholtz lograba hacer análisis de Fourier de un sonido para entender el timbre de los distintos instrumentos que tocan la misma nota (frecuencia predominante); y lo hacía con un arsenal de resonadores y diapasones.

   En una charla de divulgación sobre sonido y su análisis en condiciones del siglo XIX uno suele describir las innumerables bondades del diapasón (casi una sola frecuencia, una buena duración de su sonido, etc.), y las de los resonadores (hay un artículo muy interesante respecto a los resonadores de Helmholtz es "Beverage Bottles as Helmholtz Resonators"  de Tom Irvine que espero comentar en otro momento). Sin embargo, algo debe estar al principio; algo debe servir para calibrar un diapasón y un resonador, y ese algo debe ser medible y confiable. Yo mismo he pasado por alto ese algo, y es uno de los primeros aparatos que Helmholtz se toma el trabajo de explicar en el libro que les mencioné antes: es la sirena. Hasta informarme un poco sólo la catalogaba como un aparato para hacer ruido, ampliamente usada en barcos. Totalmente equivocado. 

Sirena de Cagniard
 La que muestro en la figura es la que saqué del libro "Física Elemental" de Ganot y Maneuvrier. El funcionamiento es más o menos así:
  1. desde abajo entra un chorro de aire rápido a la cámara con tapa C
  2. el aire pasa por las \(n\) ranuras oblicuas de C y luego pasa a la misma cantidad  \(n\)  de ranuras en el disco D (que puede girar libremente), pero que son oblicuas en el sentido contrario. Las ranuras tienen todas el mismo diámetro y están a la misma distancia del eje del aparato. 
  3. el disco D gira libremente por el chorro de aire y tiene un sinfín que mueve un cuentavueltas
Durante una vuelta completa del disco D, los  \(n\)  agujeros se abren y se cierran  \(n\)  veces. El aire que sale le confiere impulso al que está por fuera a razón de  \(n\)  vibraciones dobles por vuelta del disco y se escuchará un sonido cuando la velocidad de entrada del aire sea lo suficientemente grande. Supongamos que con un flujo constante durante un cierto tiempo igualamos al unísono el tono que nos interesa (el flujo de aire se podía regular muy bien en el siglo XIX y para lo demás bastaba con un cronómetro y leer el cuentavueltas). Sea  \(p\)  la cantidad de vueltas de D en ese tiempo. La frecuencia del sonido será simplemente

$$\nu = p \cdot n$$

Ganot observa que se produce el mismo sonido aún operando todo en y con agua.

   ¿Esto es laborioso? Sí; pero se puede realizar perfectamente y permite luego calibrar cualquiera de los otros medios más rápidos. Al fin y al cabo, en ciencia hay que empezar por algo que uno pueda medir bien; como mi propia ignorancia al no saber nada de todo este tema.

Como epílogo les dejo un video de una reproducción de sirena operada a vapor hecha por David Flores  y documentada aquí.

jueves, 19 de mayo de 2011

La caja de Landau

   El "Curso de Física General" de Lev LandauAleksandr Il'ich AkhiezerEvgeny Lifshitz es un libro que en su momento me sirvió muy bien para preparar el final de Física General 2. Como el martes tuve que improvisar un problema de ingenio para el programa de la radio, recordé una parte de este libro en la que dan un ejemplo para aclarar que un proceso irreversible en realidad es estadísticamente irreversible porque es muy pero muy improbable que suceda. La versión que daré aquí es con los números que dije en la radio.
   El ejemplo es más o menos así: supongamos un recipiente con un tabique en el medio. Podría ser un tubo con un tabique justo en el medio. La primera mitad está llena de un gas ideal (supongamos \(N=10^{23}\) moléculas, que en condiciones normales ocupan aproximadamente 3,7 litros de espacio) y la otra está al vacío. Si se practica un agujero en el medio del tabique, el gas se expande y llena todo el recipiente. La pregunta es, 
¿cuánto tiempo habría que esperar para que todas las moléculas vuelvan espontáneamente a la mitad en que estaban?
 Veamos la situación para sólo 1 molécula: supongamos que está medio segundo en cada mitad del recipiente, y por eso podemos decir que la probabilidad por segundo de que esté en la primera mitad del recipiente es 1/2. Si agrego otra molécula (y como las moléculas de gases perfectos se mueven con independencia), la probabilidad por segundo de que las dos estén en la primera mitad es \(1/2^{2}\).
   Para \(N=10^{23}\) moléculas, la probabilidad por segundo de que estén todas en la primera mitad es simplemente (pongo el número de la potencia entre paréntesis para evitar ambigüedades)

$$\frac{1}{2^{N}}=2^{-\left(10^{23}\right)}$$

La inversa de ese número es 
$$T=2^{\left(10^{23}\right)}$$

y es el tiempo que debería esperar para que todas estén en la mitad del recipiente. Este número es colosal. Veamos:

$$2^{\left(10^{23}\right)}=\left(10^{\log\left(2\right)}\right)^{\left(10^{23}\right)}=10^{\log\left(2\right)\cdot10^{23}}$$

como \(\log\left(2\right)=0,301029996\ldots \thickapprox 0,3= 3/10\), podemos decir que 

$$T=2^{\left(10^{23}\right)}=10^{\log\left(2\right)\cdot10^{23}}\thickapprox10^{3\cdot10^{22}}$$

Este número \(T\) (no nos olvidemos que son los segundos que habría que esperar para que todas las moléculas estén en una sola mitad del recipiente) es aproximadamente un 1 seguido por una cantidad de ceros que es 30.000.000.000.000.000.000.000 (3 seguido por 22 ceros). De hecho me dio curiosidad calcular cuánta memoria de computadora ocuparía escribir ese número (lo convertí con bit calculator) y ocuparía un poco más que 3.492.459.654.808 gigabytes (unos 3.330.669,07 petabytes). Considerando que Google actualmente procesa unos 20 petabytes por día, a ellos les tomaría escribir nuestra aproximación de \(T\) en forma desarrollada un poco más de 478.419.130 años (más de 478 millones de años).

Ahora comparemos  \(T\)  con algún número grande que conozcamos, por ejemplo la edad del universo. La NASA estima que es de unos 13.700 millones de años (en el orden de \(10^{17}\) segundos para trabajar con números redondos). En síntesis, si divido  \(T\)  por la edad del universo, averiguo cuántos universos debería esperar para que las moléculas de nuestro humilde experimento se vayan espontáneamente a la mitad de donde salieron, y es

$$\frac{10^{3\cdot10^{22}}}{10^{17}}=10^{(3\cdot10^{22}-17)}$$

Caemos más o menos de nuevo en lo mismo, pero para escribir ese tiempo en "universos". No cambia apreciablemente la cantidad de ceros, y a Google le tomaría escribir esta nueva cantidad aproximadamente los mismos 478 millones de años. Mucho tiempo por donde se lo mire.

Así que sí, podemos afirmar razonablemente que el proceso es efectivamente irreversible y olvidarnos del asunto considerando que sería un milagro que todas vuelvan a su lugar original. ¿Puede suceder? Sí, pero espérelo sentado.