viernes, 19 de febrero de 2016

Reproduciendo el Universo a gran escala

Diagrama de las observaciones de BOSS DR12 (región superior izquierda) junto con uno de los resultados de las simulaciones (región inferior derecha) de la distribución a gran escala de las galaxias en el Universo. Crédito: F. Kitaura & S. Rodriguez-Torres. 
El proyecto BOSS ha explorado el cielo midiendo los desplazamientos al rojo (redshifts) de más de un millón de galaxias, proporcionando una imagen tridimensional de las fuentes luminosas de nuestro Universo en un intervalo de tiempo de 4500 millones de años. Un equipo internacional de astrónomos ahora ha reproducido la agrupación que se observa en las galaxias, determinando las incertidumbres en las medidas de los parámetros cósmicos a partir de los datos observados generando miles de catálogos de galaxias simulados. Por primera vez se ha conseguido la separación entre pares de galaxias y entre tripletes de galaxias que reproduce las observaciones.


La distribución de las galaxias a escalas muy grandes contiene información valiosa sobre el origen y el destino del Universo. Para estudiar esto, el proyecto Baryon Oscillation Spectroscopic Survey (BOSS) ha medido la distribución en redshift de galaxias con precisión sin precedentes. Una cuestión importante surge del análisis de los datos proporcionados por estas exploraciones: si el Universo es comparable a un enorme experimento, ¿cómo podemos determinar las incertidumbres en la medida de las cantidades derivadas de su observación?

Los experimentos comunes pueden repetirse un número arbitrario de veces en el laboratorio, pero el Universo cósmico sólo es reproducible en supercomputadoras. Necesitan tenerse en cuenta las fluctuaciones estadísticas causadas por lo que se llama la varianza cósmica, que tienen su origen en las semillas de las fluctuaciones primordiales. Sin embargo, la reconstrucción de la estructura a gran escala en volúmenes del Universo como el cubierto por BOSS a partir de las fluctuaciones generadas tras el Big Bang hasta la formación de las galaxias observadas después de unos 1400 millones de años de evolución cósmica es una tarea ardua que requiere de millones de horas de supercomputación.

Francisco Kitaura del Leibniz Institute for Astrophysics Potsdam (AIP) afirma: "Hemos desarrollado las técnicas necesarias para generar miles de catálogos de galaxias simuladas, reproduciendo las propiedades estadísticas de las observaciones". Chia-Hsun Chuang del AIP explica: "Con esta nueva estrategia ahora somos capaces de acotar de manera fiable los errores de los parámetros cosmológicos que extraemos de los datos". Las propiedades estadísticas extraídas de los datos y comparadas con los modelos han ayudado a conocer más detalles: "Ahora entendemos mejor la relación entre la distribución de las galaxias y el campo de materia oscura a gran escala subyacente. Continuaremos refinando nuestros métodos para comprender mejor las estructuras que observamos en el Universo", concluye Kitaura.http://observatori.uv.es/

No hay comentarios:

Publicar un comentario