Brasil La utilidad del Big Data en las estadísticas públicas y empresas privadas La utilidad del Big Data en las estadísticas públicas y empresas privadas

El crecimiento exponencial del almacenaje y explotación de los datos, denominado Big Data, dado por las tecnologías de mediación digital, enfrenta fuertes limitaciones. Se propone hallar las diferencias en las distintas dimensiones de la gestión de los datos entre los ámbitos públicos y privados, tomando como factor relevante la calidad de los datos. Con base en la dinámica comportamental del COVID-19, se requieren soluciones prontas para el monitoreo, detección y diagnóstico de las enfermedades generadas por su causa (Law, Leung & Xu, 2020), la IA plantea diversas opciones de hardware y software encaminadas para tal fin (Mei et al., 2020).

articulos cientificos de big data

Lo anterior deja ver que Big Data presenta oportunidades incalculables para la formulación de investigación científica, acelera la innovación y puede ayudar a mejorar ámbitos que van desde la salud hasta el Gobierno. También se abren nuevas oportunidades de negocio porque surgen mecanismos que permiten entender las dinámicas de negocio en tiempo real, como el comportamiento de los consumidores, las actividades de vida nocturna, los mercados, entre otros. Cabe anotar que Big Data presenta también retos y peligros, ya que las tecnologías de datos son cada vez más penetrantes, intrusivas y difíciles de entender. Basado en estas características, en un estudio de bases de datos estructuradas y no estructuradas, se buscan correlaciones recurrentes por medio del cruce de información hasta llegar a una solución plausible, que por lo general permite anticiparse a un evento, como caso particular la COVID-19.

Lucileide Andrade de Lima do Nascimento, Universidade Federal do Espírito Santo

Para el caso de análisis de datos robustos se requiere de una gran infraestructura tecnológica, como superordenadores dedicados específicamente para trabajar con IA, donde empresas como Microsoft e IBM están apostando con el objetivo de encontrar tratamientos que permitan combatir la COVID-19 en un tiempo relativamente corto. La particularidad de trabajar con este tipo de tecnología es que puede ejecutarse desde diversos lugares del mundo, facilitando el acceso al código abierto a grupos de investigadores que trabajan en diversas áreas de la IA, el Big Data y ciencia de datos. Sin embargo, se presenta aún una marcada tendencia hacia los aportes de tipo conceptual, son pocos los resultados y hallazgos que permitan realmente vislumbrar de forma tangible sus beneficios frente a otras tendencias o tecnologías tradicionales. Los trabajos se concentran, en su gran mayoría, en asociar Big Data a grandes volúmenes de datos o a la distribución de procesamiento. En el primer caso, no es claro cuál es la cantidad de datos que permite esta calificación; y para el segundo, no hay coincidencia en determinar para qué tipo de datos el procesamiento distribuido consigue mejores resultados. Con lo anterior, se ratifica que existen numerosos vacíos conceptuales y tecnológicos en los cuales se pueden plantear trabajos investigativos y prácticos.

  • El crecimiento en el volumen de datos generados por diferentes sistemas y actividades cotidianas en la sociedad ha forjado la necesidad de modificar, optimizar y generar métodos y modelos de almacenamiento y tratamiento de datos que suplan las falencias que presentan las bases de datos y los sistemas de gestión de datos tradicionales.
  • Por ejemplo, Smith y Smith (2020, 2) afirman que, el diseño futuro de fármacos antivirales SARS-CoV-2, ya está a cargo de un equipo europeo que utiliza el supercomputador de IBM equipado con el sistema AI SUMMIT para ser utilizado en tratamientos por COVID-19.
  • El aprendizaje automático abre un sinnúmero de posibilidades de investigación en diversos campos clínicos, donde la COVID-19 ha sido el impulsor de ello.

El crecimiento de los datos, como la explosión de las redes móviles, la computación en la nube y las nuevas tecnologías son descritas en [12]. Este informe captura los puntos de vista recogidos durante un evento de exploración de temas de Big Data e inferencia de software. Las compañías que han sido pioneras en el uso de analíticas profundas sobre grandes bases de datos han sido las que operan sobre internet, como son los motores de búsqueda, los sitios de redes sociales y los Bootcamp vs. curso online: por qué los programas de TripleTen son la mejor opción sitios de comercio en línea. Sin embargo, el desarrollo de nuevos tipos de sensores remotos como telescopios, videocámaras, monitores de tráfico, máquinas de resonancia magnética, sensores químicos y biológicos y sensores de monitoreo ambiental, se han generado nuevos flujos de datos digitales. Así mismo, las personas a través de sus teléfonos celulares, computadores personales, sitios web y otro tipo de dispositivos digitales generan grandes flujos de datos personales.

La calidad de los datos en las estadísticas oficiales

El volumen en el campo del Big Data demanda grandes recursos de procesamiento y almacenamiento de información, que están representados en la “Variedad” de los datos, que pueden ser de tipo estructurados y no estructurados. Con respecto a la “Velocidad”, hace referencia a la cantidad de datos que se generan periódicamente y requieren de una infraestructura tecnológica escalable que permita su disponibilidad y acceso en cualquier momento. Sobre la “Veracidad” y “Valor”, es imprescindible que los datos almacenados sean veraces, de lo contrario se estarían dilapidando recursos computacionales valiosos en información poco confiable o inservible, que derivan en resultados y toma de decisiones incorrectas. Sobre el “valor”, se entiende en el sentido de extraer información relevante para definir estrategias y toma de decisiones.

Otra de las bases de Big Data es la computación en la nube o cloud computing logrando que los desarrolladores ya no requieran de grandes inversiones en hardware, la elasticidad de recursos sin necesidad de pagar por servicios Premium de gran escala es un hito fundamental en la historia de las tecnologías de la información. Se auguró el crecimiento de cloud computing independientemente de si los servicios adquiridos son a bajo o alto nivel de abstracción. Se afirma que el almacenamiento, cómputo y las redes deben concentrarse en la escalabilidad horizontal de los recursos virtualizados en lugar del rendimiento de un solo nodo.

Indicadores

Como se puede apreciar, son variados los campos de dominio y problemáticas que pueden ser abordadas mediante la adopción de MapReduce para la simplificación de complejos. Lo que se puede rescatar de la pandemia del COVID-19 es que ha impulsado desarrollos tecnológicos sin precedentes en materia de inteligencia artificial en sus diferentes áreas del saber, al igual que las ciencias de datos masivos. Bajo este panorama, el sector salud tendrá que incorporar rápidamente estos recursos a su sistema de análisis y diagnóstico, no solo de enfermedades infeccionas sino de cualquier otra, por lo que se espera mejorar el servicio prestado a un paciente o comunidad y preparar a la sociedad ante cualquier eventualidad de pandemia a futuro. Además, este tipo de desarrollos ayudan a los centros de salud a reducir costos operativos de diversa índole, donde el tiempo de diagnóstico juega un papel fundamental para detener un potencial foco pandémico. Con base en lo anterior, el estudio del COVID-19 empleando Big Data puede valerse de la analítica retrospectiva y descriptiva avanzadas (Mohamed et al., 2019) expresas en la inteligencia de negocios (Business intelligence) (Chahal, Jyoti y Wirtz, 2019); ya que esta permite focalizar el estudio mediante indicadores y tendencias en el tiempo, lo que incluye predicciones a futuro. Bajo estos criterios, entra a formar parte la ciencia de datos empleando técnicas estadísticas y matemáticas caracterizadas en las variables de estudio que permiten ampliar las técnicas y modelos representados como clusters (Mohebi et al., 2016) a través de patrones o correlaciones de datos, que a la vez pueden ser integrados con la IA para mejorar los resultados.

Un ejemplo es el sistema Covid-Net, cuyo objetivo es la detección de la infección viral por COVID-19 mediante el examen de radiografías o tomografías de tórax (Wang & Wong, 2020), donde diversos estudios permiten identificar anomalías radiográficas en las imágenes con un alto grado de confiabilidad, tales como la neumonía viral y otros problemas respiratorios que pueden tener o no relación con el virus. Como tecnologías de Big Data se clasifican aquellas que dan soporte a la captura, transformación, procesamiento y análisis de los datos, ya sean https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten estructurados, semiestructurados o no estructurados. Se decide presentar estas tecnologías ya que son software de libre uso y que permite la generación de soluciones de Big Data de acuerdo con las necesidades particulares de un dominio de datos u organización. Cabe aclarar que existen un mayor número de tecnologías que soportan Big Data, tanto libres como propietarias, pero para efectos de este documento se ha acotado de acuerdo con lo anteriormente expuesto y tomando las tecnologías que dieron las bases iniciales al ecosistema Big Data.

No Responses

Leave a Reply

Your email address will not be published. Required fields are marked *