Ir Arriba Ir abajo


Bienvenidos en chino
Mobbing-acoso laboral-IRG
contador de visitas

¿Cómo es el día a día de un Data Scientist? ¡Conviértete en Data Scientist por un día!

Clic en la imagen


¿Qué es la "ciencia de datos"?
Esta "ciencia de los datos", nacida del método científico, es la evolución de lo que hasta ahora se conocía como Analista de datos, pero a diferencia de éste que sólo se dedicaba a analizar fuentes de datos de una única fuente, el Data Scientist debe explorar y analizar datos de múltiples fuentes, a menudo inmensas (conocidas como Big Data), y que pueden tener formatos muy diferentes. Además, debe tener una fuerte visión de negocio para ser capaz de extraer y transmitir recomendaciones a los responsables de negocio de su empresa.

Estos conjuntos de datos pueden provenir de los datos generados por todo tipo de dispositivos electrónicos (como un móvil, todo tipo de sensores, secuenciadores de genoma, ...), redes sociales, datos médicos, páginas web, ... y afectan de manera muy significativa la investigación actual en muchos campos como las ciencias biológicas, la informática médica, la salud, las ciencias sociales, por citar sólo algunos.

¿Qué proceso sigue un Data scientist?
El proceso que sigue un Data Scientist para responder a las cuestiones que se le plantean se pueden resumir en estos 5 pasos:
  • Extraer los datos, independientemente de su fuente (webs, csv, logs, APIs, etc.) y de su volumen (Big Data o Small Data)
  • Limpiar los datos, para eliminar lo que distorsiona a los mismos
  • Procesar los datos usando diferentes métodos estadísticos (inferencia estadística, modelos de regresión, pruebas de hipótesis, etc.)
  • Diseñar nuevos tests o experimentos en caso necesario
  • Visualizar y presentar gráficamente los datos.
¿Qué se espera de un Data Scientist?
Lo que se espera de un Data Scientist es que no sólo sea capaz de abordar un problema de explotación de datos desde el punto de vista de análisis, sino que también tenga las aptitudes necesarias para cubrir la etapa de gestión de datos. Así, el objetivo de un perfil de este tipo es acercar dos mundos (el de gestión y análisis de datos), que hasta ahora habían podido existir separados, pero que debido a los nuevos requisitos de volumen, de variedad de datos y de velocidad en la explotación de estas (ie, las tres V's de la definición estándar del término Big Data), se ha vuelto imprescindible llevar a cabo esta explotación a través de un perfil combinado, y que además, también entienda el negocio para dirigir esta explotación hacia resultados que puedan ser de interés para la compañía...

Fuente: Texto | Video

¿Qué es el BLOCKCHAIN? Explicado por un INGENIERO INFORMÁTICO

Clic en la imagen

Una cadena de bloques, conocida en inglés como blockchain, es una estructura de datos cuya información se agrupa en conjuntos (bloques) a los que se les añade metainformaciones relativas a otro bloque de la cadena anterior en una línea temporal. De esta forma, gracias a técnicas criptográficas, la información contenida en un bloque solo puede ser repudiada o editada modificando todos los bloques posteriores. Esta propiedad permite su aplicación en un entorno distribuido de manera que la estructura de datos blockchain puede ejercer de base de datos pública no relacional que contenga un histórico irrefutable de información. En la práctica ha permitido, gracias a la criptografía asimétrica y las funciones de resumen o hash, la implementación de un registro contable (ledger) distribuido que permite soportar y garantizar la seguridad de dinero digital.

Siguiendo un protocolo apropiado para todas las operaciones efectuadas sobre la blockchain, es posible alcanzar un consenso sobre la integridad de sus datos por parte de todos los participantes de la red sin necesidad de recurrir a una entidad de confianza que centralice la información. Por ello se considera una tecnología en la que la "verdad" (estado confiable del sistema) es construida, alcanzada y fortalecida por los propios miembros; incluso en un entorno en el que exista una minoría de nodos en la red con comportamiento malicioso (nodos sybil) dado que, en teoría, para comprometer los datos, un atacante requeriría de una mayor potencia de cómputo y presencia en la red que el resultante de la suma de todos los restantes nodos combinados. Por las razones anteriores, la tecnología blockchain es especialmente adecuada para escenarios en los que se requiera almacenar de forma creciente datos ordenados en el tiempo, sin posibilidad de modificación ni revisión y cuya confianza pretenda ser distribuida en lugar de residir en una entidad certificadora. Este enfoque tiene diferentes aspectos:
  • Almacenamiento de datos: se logra mediante la replicación de la información de la cadena de bloques
  • Transmisión de datos: se logra mediante redes de pares
  • Confirmación de datos: se logra mediante un proceso de consenso entre los nodos participantes. El tipo de algoritmo de consenso más utilizado es el de prueba de trabajo en el que hay un proceso abierto competitivo y transparente de validación de las nuevas entradas llamada minería
El concepto de cadena de bloque fue aplicado por primera vez en 2009 como parte de Bitcoin.

Los datos almacenados en la cadena de bloques normalmente suelen ser transacciones (p. ej. financieras) por eso es frecuente llamar a los datos transacciones. Sin embargo, no es necesario que lo sean. Realmente podríamos considerar que lo que se registran son cambios atómicos del estado del sistema. Por ejemplo una cadena de bloques puede ser usada para estampillar documentos y asegurarlos frente a alteraciones.

Fuente: Texto | Video-Dot CSV

Curso Python para Principiantes

Clic en la imagen

Python es uno de los lenguajes de programación más importantes actualmente, siendo un lenguaje de propósito general puedes llegar a crear con el aplicaciones web, aplicaciones de escritorio, aprende Hacking e Inteligencia Artificial, y mucho más. En este curso voy a darte las bases de lenguaje para que puedas iniciar con el y luego continuar aprendiendo algún framework o bibliotecas que te permitan crear estas aplicaciones.

Fuente: Fazt

R para análisis de datos Capacitación para principiantes

Clic en la imagen
R es un entorno y lenguaje de programación con un enfoque al análisis estadístico.
R nació como una reimplementación de software libre del lenguaje S, adicionado con soporte para ámbito estático. Se trata de uno de los lenguajes de programación más utilizados en investigación científica, siendo además muy popular en los campos de aprendizaje automático (machine learning), minería de datos, investigación biomédica, bioinformática y matemáticas financieras. A esto contribuye la posibilidad de cargar diferentes bibliotecas o paquetes con funcionalidades de cálculo y graficación. R es parte del sistema GNU y se distribuye bajo la licencia GNU GPL. Está disponible para los sistemas operativos Windows, Macintosh, Unix y GNU/Linux.

Óxido Nítrico (NO) - Azanona (HNO) en Sistemas Biológicos Química Viva


En este trabajo se presentan los últimos avances en la química biológica del sistema NO/HNO y sus efectos posteriores en diferentes contextos, principalmente resumiendo el mecanismo de reacción de más de quince agentes reductores moderados que interaccionan con NO produciendo HNO. Además, se describen las características más importantes del sensor específico para HNO, el cual ha permitido develar parte de estos recientes resultados. Finalmente, se discuten las implicaciones de estas rutas químicas (no enzimáticas), biológicamente compatibles, para la formación de HNO endógeno, quedando demostrado que el NO y el HNO son complementarios, interdependientes y están interconectados en los sistemas biológicos.

Ver más...

Cómo Einstein me ayudó a convertirme en científico Michio Kaku, físico

Clic en la imagen

¿Cómo será el futuro? El físico estadounidense Michio Kaku asegura que el futuro se está inventando en los laboratorios científicos. En este vídeo analiza cómo los avances de la ciencia cambian continuamente nuestra vida y, consciente de que afectarán también la educación, reflexiona sobre la importancia de enseñar cosas útiles a los alumnos. "En el futuro la memorización quedará obsoleta, con un solo parpadeo podremos ver la información porque tendremos Internet en las lentillas", asegura. Además, Kaku alaba la labor de los profesores de los que cree "nunca podrán ser sustituidos por robots".

Michio Kaku es cofundador de la teoría de cuerdas y uno de los científicos más reconocidos del mundo. Profesor y autor de libros con superventas como ‘Física de lo imposible’ o ‘El futuro de nuestra mente’, Kaku investiga hacia dónde irá la ciencia y la tecnología del mañana. Actualmente ocupa la cátedra Henry Semat de Física Teórica en la Universidad de Nueva York.

Fuente: Aprendemos juntos-BBVA

Monitoreo y Distribución de la Contaminación Atmosférica de PM10 y PM2.5 en Asia utilizando el NexION ICP-MS

monitoreo ambiental

Introducción

La preocupación por la contaminación del aire ha ido en aumento rápidamente, haciendo foco en los gases contaminantes, como gases de efecto invernadero, NOx y SOx.

Sin embargo, las partículas en el aire, especialmente las más pequeñas, están ganando atención rápidamente debido a su impacto en la salud humana. Esto se debe a que las partículas más pequeñas pueden ser transportadas a través de largas distancias por el viento y penetrar profundamente en los pulmones, donde los contaminantes pueden tener una interacción directa con los tejidos pulmonares y los vasos sanguíneos asociados.

Las partículas en suspensión en el aire se clasifican generalmente en dos rangos de tamaño: aquellas con diámetros aerodinámicos inferiores a 10 µm se clasifican como PM10, y aquellas con diámetros aerodinámicos inferiores a 2,5 µm se denominan PM2,5.

En todo el mundo se han implementado regulaciones de PM2.5. La Organización Mundial de la Salud (OMS), por ejemplo, ha establecido directrices para niveles seguros de PM2.5,1 y en 2008, la UE estableció sus propios límites de 25 µg / m3 / por año.2 En Asia, muchas ciudades tienen altas densidades de tráfico y grandes poblaciones en espacios reducidos, lo que puede tener un impacto significativo en las concentraciones de PM locales y regionales. Desde 2009, Japón implementó estándares que establecen que las concentraciones medias anuales de PM2.5 deben ser menores de 15 µg / m3, con concentraciones diarias de menos de 35 µg / m3.3 A esto le siguió en 2011 la implementación de la “Guía para el análisis de componentes de PM2.5” que establece que se deben analizar los iones inorgánicos solubles, el carbono orgánico, el carbono elemental y varios componentes metálicos.

Con el fin de implementar un régimen para reducir la concentración de PM2.5, es importante determinar el origen de estas partículas, de ahí la necesidad de recolectarlas y analizarlas.

La recolección de partículas se logra utilizando impactadores de cascada, que recolectan partículas por su fracción de tamaño en filtros de aire con poros de diferentes tamaños, colocados en múltiples ubicaciones dentro de la ciudad. Analizando la composición elemental de cada fracción de tamaño y correlacionando los resultados con datos meteorológicos del período de recolección, se puede obtener una comprensión de la composición, la fuente y la movilidad de las partículas dentro de la atmósfera. ICP-MS es a menudo el instrumento analítico que mayoritariamente se elige para tales aplicaciones debido a detección de límites bajo y a su amplio rango dinámico lineal.

Este trabajo se centra en el análisis de componentes inorgánicos de PM2.5 y PM10 recogidos en filtros de aire de diferentes ciudades de Asia.

Experimental. Recolección y preparación de muestras

Se recolectaron partículas de aire en Beijing, China (cinco muestras), Seúl, Corea del Sur (cinco muestras) y Tokio, Japón (dos muestras) desde la primavera hasta el otoño utilizando impactadores de cascada de cuatro etapas, como se muestra en la Figura 1. Cada período de recolección duró 18 horas con aire extraído a través de los impactadores a 3 L / min. Las partículas se recogieron en filtros de policarbonato en cada etapa del impactador.

Figura 1. Esquema de un impactador de cascada de 4 etapas utilizado en este trabajo

Después de cada período de recolección, se retiraron los filtros y se prepararon para el análisis. Dado que se realizaron varios análisis diferentes en las partículas, cada filtro se dividió en 12 secciones, de las cuales cinco de esas secciones se utilizaron para Análisis ICP-MS. Las otras secciones de filtro se utilizaron para análisis cromatográfico de aniones y análisis IR para componentes orgánicos (no discutidos en este resumen de la aplicación).

Para el análisis ICP-MS, los filtros se digirieron en un horno microondas usando 2.5 mL de ácido nítrico concentrado y 0.5 mL de ácido fluorhídrico concentrado (ambos grados TAMAPURE AA-100) de acuerdo con el programa de microondas que se muestra en la Tabla 1.

Tabla 1. Programa de digestión por microondas

Después de sacarlos del microondas, los recipientes de digestión fueron enfriados durante 20 minutos en un baño de agua helada antes de ser transferidos a una placa caliente y evaporados hasta casi la sequedad. Antes del análisis, el residuo se volvió a disolver en 10 g de ácido nítrico 0,4 N.

Recopilación de datos meteorológicos

Aunque no se informa en esta aplicación, las fuentes probables de los metales de traza y los principales componentes iónicos en los aerosoles se determinaron mediante un análisis de componentes principales (PCA), examinando correlaciones entre elementos y calculando los factores de enriquecimiento de la corteza de los elementos. Además, las mayores fuentes que afectaron principalmente las concentraciones de PM10 y PM2.5 en el sitio de muestreo fueron identificadas utilizando un modelo de partícula única híbrida lagrangiana (HYSPLIT, NOAA, Silver Spring, Maryland, EE. UU.) con los Centros Nacionales de Sistema de asimilación de datos globales de predicción ambiental (NCEP-GDAS, NOAA) y el conjunto de datos meteorológicos.

Análisis instrumental

Todos los análisis se realizaron en un NexION® ICP-MS (PerkinElmer, Shelton, Connecticut, Estados Unidos). Los parámetros instrumentales son que se muestra en la Tabla 2. Durante el desarrollo y la validación del método, se investigaron diferentes condiciones celulares analíticas e isótopos y los valores óptimos informados en la Tabla 3. En el modo Reacción, el metano se utilizó como gas celular. Para todos los isótopos, se utilizó praseodimio (10 ppb) como patrón interno debido a su ausencia en las muestras y su potencial de ionización similar al indium (In), donde no se utilizó indium ya que era un analito y se encontró que estaba presente en los sitios.

Tabla 2. Parámetros instrumentales

Tabla 3. Elementos, isótopos y condiciones celulares universales

Resultados

La Tabla 4 muestra las concentraciones elementales promedio en PM10 y fracciones de PM2.5 recolectadas en Seúl, Beijing y Tokio durante el período de muestreo. Estos resultados indican que en Beijing había las concentraciones elementales más altas para la mayoría de los analitos excepto cobre (Cu), que fue mayor para PM10 y PM2.5 en Tokio. Se encontró que el vanadio (V) y el bario (Ba) eran los más altos en fracción PM2.5 en Seúl. Se descubrió que Seúl tenía significativamente concentraciones de PM10 más bajas para todos los elementos que Tokio, sin embargo se encontró que ambas ciudades tenían concentraciones similares de PM2.5 para la mayoría de los analitos con la excepción de Cu. El largo estándar de desviación (sd) en las mediciones puede explicarse porque los filtros se recolectan durante tres temporadas en cada ciudad (primavera, verano, otoño) donde el verano es la temporada de lluvias para cada una de las ubicaciones lo que puede dar lugar a grandes cambios en la calidad del aire debido a la deposición de partículas en el aire.

Tabla 4. Concentraciones elementales promedio (µg / m3) para partículas PM10 y PM2.5 en Beijing, Seúl y Tokio durante abril-noviembre

Al correlacionar los lugares y horas de recolección con los datos meteorológicos4 se determinó que las partículas en el aire cayeron en tres categorías: origen natural, origen antropogénico y de fuente mixta. El PM10 cayó en las tres categorías, mientras que PM2.5 fue casi completamente de fuentes antropogénicas. Las fuentes naturales primarias de las partículas se remontan al desierto de Gobi y al rocío del mar, mientras se cree que las fuentes antropogénicas eran principalmente de las industrias del hierro, acero, semiconductores y combustión de combustibles en las áreas colidantes. La interpretación adicional de los resultados está disponible en otra parte.

Conclusión

Este trabajo ha descrito la recolección, preparación de muestras y el análisis elemental inorgánico de PM2.5 y PM10 atmosféricos utilizando el NexION ICP-MS. Las partículas se recolectaron en tres grandes ciudades y fueron analizadas por ICP-MS para elementos inorgánicos. Aplicando algoritmos de interpretación de datos avanzados y siendo correlacionados con datos meteorológicos en cada sitio, se encontró que las partículas se originaron tanto de fuentes naturales como antropogénicas con PM2.5 procedente casi exclusivamente de fuentes antropogénicas.

Referencias

1. World Health Organization (WHO). 2006. WHO Air Quality Guidelines for Particulate Matter, Ozone, Nitrogen Dioxide and Sulfur Dioxide; http://www.euro.who.int/Document/E87950.pdf

2. European Union (EU). 2008. https://ec.europa.eu/environment/air/quality/standards.html

3. Ministry of Environment, Government of Japan (MoEJ). 2009

https://www.env.go.jp/en/air/aq/aq.html

4. Nagafuchi O., Morimoto M. 2013. Potential Source Analysis for PM10 and PM2.5 in Beijing, Seoul and Tokyo, AAQR Conference Proceedings. Poster Presentation.

www.perkinelmer.com.ar

Más información:

www.perkinelmer.com.ar

Talento en Acción Tecnológico y Empresarial

Clic en la imagen

A Highly Efficient Biocatalytic Conversion of Renewable Pectic Polysaccharide Biomass into Bioactive Oligogalacturonides

highly efficient bioatalytic Conversion


ACS Food Sci. Technol. 2021, XXXX, XXX, XXX-XXX
Publication Date:February 15, 2021 https://doi.org/10.1021/acsfoodscitech.0c00040
© 2021 American Chemical Society

Abstract
The quest for an efficient biodegradation of pectic polysaccharides into sustainable oligogalacturonide (OG) products for a recent bioactivity study and application is currently underway. This study reported highly efficient degradation of pectin into OGs (DP2–DP10) by a polygalacturonase (i.e., AnPG28A from Aspergillus niger). The activity of AnPG28A toward low-methoxyl pectin reached 42897 units/mL, and the protein concentration was 7.7 g/L after 96 h, the highest of the reported values. For further processing of commercial pectins to produce OGs, the physicochemical properties of different kinds of commercial pectins on the market were characterized. The preparation of high-purity OG standards (DP2–DP7) was achieved with polygalacturonic acid as a substrate by high-performance liquid chromatography, which helps the preparation of OG, its usage, and the study of its functional characteristics. Moreover, further OG production pilot experiments were performed on the basis of a response surface methodology. The OG yield was approximately 65% on the pilot scale. AnPG28A has many advantages, such as easy, inexpensive preparation, greenness, and excellent catalytic activity. The high yield and quality of OGs and the sustainability and eco-friendly process support the forthcoming commercialization of the biocatalytic transformation of pectin into high-value-added OGs.

Fuente: American Chemical Society

Rosalind Franklin (1920-1958) por Beatriz S. Méndez

Tapa de Time Magazine (1953) Rosalind Franlklin Visionary Scientist.

AutoraBeatriz S. Méndez
Departamento de Química Biológica. Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires. Buenos Aires, Argentina
bea@qb.fcen.uba.ar

Rosalind Franklin nació en Londres el 26 de julio de 1920. Hija de una familia culta y de muy buena posición económica tuvo una excelente educación familiar y escolar. En su hogar aprendió a pensar por sí misma y a defender sus ideas y convicciones. Tal vez, como se vio más adelante, esta actitud pudo ser perjudicial en esos tiempos.

Se educó en escuelas privadas de alto nivel distinguiéndose en ciencias, latín e idiomas extranjeros. Una anécdota, que ya perfilaba sus intereses científicos, se dio al obtener a los 15 años como premio escolar un libro de su elección. El elegido fue New Pathways in Science que trataba entre otros temas la teoría cuántica y energía sub atómica.

A los 18 años Rosalind entró en la Universidad de Cambridge para estudiar Ciencias Naturales. Allí por supuesto se destacó como estudiante y también participó en varias de las sociedades estudiantiles que poblaban Cambridge. Obtuvo su graduación luego de tres años de estudio, los últimos dos durante la segunda guerra mundial y recibió una beca de la Universidad que le permitió encarar su doctorado. El tema desarrollado fue a partir de su observación sobre la capacidad de los poros del carbón para permitir el pasaje de moléculas de determinado tamaño. Obtuvo su doctorado en 1945, a la par que produjo cinco publicaciones en revistas científicas. Estas tareas coincidieron con el fin de la guerra lo que le permitió mayor libertad para elegir temas para su etapa postdoctoral.

Distintos contactos en conferencias científicas la acercaron al equipo presidido por Jaques Mering que mediante difracción de rayos X estudiaba la estructura de sustancias amorfas, entre ellas el rayon. Fue así como en 1947 Rosalind se integró, como investigadora postdoctoral, a dicho equipo en el Laboratorio Central de Servicios Químicos del Estado en París y se convirtió en una consumada experta en el estudio de estructuras mediante difracción de rayos X. Analizó principalmente el proceso de transformación del carbón amorfo en grafito cristalino. La importancia de los estudios, además de las publicaciones, incluida una en Nature, tenía consecuencia social ya que en la época el carbón se usaba en la industria, en los hogares y en la confección de máscaras de protección para distintas actividades.

Aunque apreciaba el ambiente en Francia comprendió que debía retornar a su país y en enero de 1951 ingresó en el laboratorio de biofísica del King’s College en Londres. Dada su experiencia en difracción de rayos X, John Randall que dirigía la Unidad de Biofísica, decidió que aplicara dicha tecnología al estudio de la estructura de DNA y le asignó a Raymond Gosling, estudiante de doctorado, como su ayudante. En realidad ese trabajo ya había sido iniciado por Maurice Wilkins y Gosling pero con equipos poco avanzados. Como Randall no le comunicó a Wilkins su decisión, allí se estableció una tremenda fricción entre ambos científicos que empañó el logro que se alcanzaría con la dilucidación de la estructura. Aunque hubo más implicados en el tema, desde el principio conviene incluir a Randall quien pensaba que la competencia entre científicos hace adelantar la ciencia.

Rosalind, al poco tiempo de estar en el laboratorio descubrió el B DNA o sea la estructura que se obtiene en condiciones de alta humedad. En medios no acuosos se encuentra la forma A DNA. Un logro verdaderamente importante.

La estadía en King’s se hacía extremadamente incómoda por la relación entre Wilkins y Rosalind. Aumentada aún más por la presencia de James Watson que trataba de averiguar todos los datos de los estudios sobre DNA que ella y Gosling estaban realizando.

Watson no tenía una ocupación fija en Cambridge luego de su participación como estudiante en el grupo de los Fagos de la costa oeste norteamericana y estaba obsesionado por descubrir la estructura del DNA. Para ello contó con la colaboración de Francis Crick quien buscaba nuevos horizontes para sus investigaciones en la universidad. Tras escuchar la presentación de Rosalind sobre B DNA ambos decidieron poner manos a la obra en el análisis de la estructura. El primer experimento no fue exitoso ya que lograron una triple hélice dados sus escasos conocimientos de Química.

Por la molesta situación que había en King´s Franklin decidió partir hacia otro laboratorio, Birbeck College, pero un año antes de su partida mediante la mejora que había introducido en los métodos de difracción por rayos X obtuvo junto su becario Gosling la famosa foto 51 del B DNA, el 6 de mayo de 1952.




Esta es la histórica foto que reveló la estructura del DNA. Perfecta y hermosa fue objeto de culto y objeto del robo que empañó la gloria de su hallazgo (ver más adelante algunos entre muchos reconocimientos). Ver más


Revista QuímicaViva
ISSN 1666-7948 www.quimicaviva.qb.fcen.uba.arNúmero 3, año 19, Diciembre 2020 quimicaviva@qb.fcen.uba.ar