Ir Arriba Ir abajo


Bienvenidos en chino
Mobbing-acoso laboral-IRG
contador de visitas

Ley SOPA y PIPA CN23


Clic en la imagen

El apagón de Wikipedia en inglés fue una medida de protesta en rechazo a las propuestas de ley estadounidenses SOPA y PIPA llevada a cabo el día 18 de enero de 2012. Consistió en un bloqueo autoimpuesto impidiendo ingresar al contenido del sitio, y mostrando en cambio una pantalla negra donde se leía «Internet debe seguir siendo libre», ejemplificando que es lo que puede suceder con la censura en internet. A pesar de que fue llamada "apagón" los servidores de Wikipedia no dejaron de funcionar, y el contenido siguió estando disponible si se utilizaba algún mecanismo para saltar el bloqueo. La medida comenzó a las 05:00 horas del Tiempo Universal Coordinado y terminó a la misma hora del día jueves 19 de enero de 2012. Es el primer «corte» que registra Wikipedia tras casi once años ininterrumpidos de servicio en la web.

El apagón de Wikipedia formó parte de una serie de protestas protagonizadas por varios sitios web con diferente grado de adhesión. Otros sitios que decidieron dar de baja sus servicios por un día fueron por ejemplo Wordpress y Cuevana, mientras que otros como Google y la Fundación Mozilla optaron por incluir en sus páginas avisos de protesta con enlaces donde se podía conseguir más información y contactos de los representantes legislativos. Google por ejemplo puso en su página de Estados Unidos un doodle cubierto por una placa oscura y una leyenda que decía: «por favor no censuren la web».

Otras Wikipedias, como la Wikipedia en alemán, y la Wikipedia en italiano4 pusieron sendos carteles en sus portadas como rechazo a la ley, al igual que la edición en español y la edición en japonés.

Fuente: CN23TV

Thermodynamic Properties of Acetylene Using Cubic Equations of State


Fuente: Wolfram.com

Equipo de Medida de Masas Textura y Reología
Dra. Mª J. H. Lucas©

Alveógrafo

La masa (combinación de harina de cereales, normalmente trigo, agua, levadura, sal y otros ingredientes) es quizás uno de los materiales más complejos de la reología alimentaria. Por eso se han desarrollado muchos instrumentos empíricos para su evaluación.

Los instrumentos se dividen en dos grandes grupos: los que miden la potencia necesaria en el proceso de mezclado para formar la masa (farinógrafo, mixógrafo) y los que someten la masa preparada a una deformación extensional (extensiógrafo, alveógrafo). Con estos equipos se determinan diversos parámetros que, de forma empírica, permiten cuantificar la calidad de la harina y de las masas elaboradas con ésta, y así prever su comportamiento en los procesos industriales de amasado y horneado.FarinógrafoSi bien los resultados que proporcionan estos equipos no se correlacionan con magnitudes reológicas explicadas en este tema, son de gran utilidad práctica e incluso existen normas internacionales que describen estos métodos de análisis.

•Ver también:
I | II | III | IV | V | VI | VII | VIII | IX | X | XI | XII | XIII | XIV | XV | XVI | XVII | XVIII | XIX | XX | XXI

Apocalipsis Maya III Un Mito de Nuestros Tiempos
Discovery Channel

Apocalipsis Maya III

APOCALIPSIS MAYA analiza este fenómeno, las diferentes creencias sobre el fin de los tiempos y lo que verdaderamente vieron los mayas. En el nuevo episodio, "Un mito de nuestros tiempos", la serie explora el movimiento de la Nueva Era Occidental y las actuales manifestaciones culturales sobre el 2012.

DISCOVERY CHANNEL combina la ciencia ficción, la cultura hippie de los años 70, las drogas, el Internet y la ansiedad de la sociedad moderna por creer en algo. Todo ello sin dejar de lado a los antiguos mayas, quienes tienen mucho que enseñarnos sobre el fin de una gran civilización.

Fuente: Supervivencia2012cl

Economic Indicators Chemical Engineering©


Clic para ver

Fuente: www.che.com - December- 2011

Balance de Masa y Energía MSc. Ing. Lilian Castillo

.

More PowerPoint presentations from Lilian Castillo

Propiedades Reológicas de Melados de Caña de Azúcar Magdalena Mechetti, Azucena del R. Gómez López y Alberto Balella

Reología del Melados
Resumen

Se han estudiado las características reológicas de muestras de melados de caña de azúcar (Saccharum officinarum), a las temperaturas de 20, 30, 40 y 50ºC.

El comportamiento observado, con una leve tixotropía en una de las muestras, corresponde en todos los casos al de un fluido pseudoplástico descrito adecuadamente por el modelo de Ostwald–de Waele, a partir del cual se obtuvieron los valores del índice de flujo n (0,88≤ n ≤0,97), y de consistencia k (0,06 Pa sn≤ k ≤0,73 Pa sn).

Los valores del índice de flujo menores que la unidad, confirman la pseudoplasticidad y disminuyen con el aumento de la temperatura. El índice de consistencia, aumenta con el contenido de sólidos y disminuye con el aumento de la temperatura. La viscosidad aparente, disminuye con el aumento de la temperatura y con la velocidad de deformación.

A partir de la ecuación de Arrhenius se determinó la energía de activación con valores entre 32,6 y 49,1 kJ/mol. Se investigaron las propiedades viscoelásticas de estos melados para lo cual se realizaron estudios dinámicos oscilatorios en barrido de esfuerzo de corte y en barrido de frecuencia. Del comportamiento de los parámetros viscoelásticos G’, G’’ y tg δ se determina la zona viscoelástica lineal y se concluye que las muestras presentan características viscoelásticas.

Tech News: ESPECIAL CES 21-01-2012
C5N

Tech News: ESPECIAL CES

Fuente: C5N

Diagrama de Flujo Herramientas Básicas de la Calidad
Calidad Total

Clic sobre la imagen para ver la galería

Conocido también como flujograma o fluxograma y diagramación lógica o de flujo.

Es una herramienta de gran valor para entender el funcionamiento interno y las relaciones entre los demás procesos de la organización. Es un método para describir gráficamente un proceso existente o uno nuevo propuesto, mediante la utilización de símbolos, líneas y palabras simples, demostrando las actividades y su secuencia en el proceso. diagramas de flujo representan gráficamente las actividades que conforman un proceso, así como un mapa representa un área determinada.

La construcción de los diagramas de flujo nos sirve para disciplinar nuestro modo de pensar.

Su propósito es documentar un proceso para facilitar su comprensión y la identificación de áreas que necesitan mejoramiento.

Visión General del Diagrama de Flujo
La comparación del diagrama de flujo con las actividades del proceso real hará:

Resaltar aquellas áreas en las cuales las normas o políticas no son claras o se están violando. Surgir las diferencias entre la forma como debe conducirse una actividad y la manera como realmente se dirige.

Son un elemento muy importante en el mejoramiento de los procesos, muestran claramente las áreas en las cuales los procesos confusos interrumpen la calidad y la productividad.

Dada su capacidad para clarificar procesos complejos, facilitan la comunicación en las áreas problema.

Cada proceso es diferente y presentará problemas únicos de diagramación, lo que hace importante la participación de las personas que ejecutan las tareas.

Diagrama de Bloques
En términos generales se utilizan para documentar la magnitud de un proceso, por lo que no se detallan muchas actividades y salidas en forma intencional. Proporciona una visión rápida, no compleja del proceso.

Se utilizan para simplificar procesos prolongados y complejos o para documentar tareas individuales.

Los diagramas de bloques pueden presentarse en forma vertical y horizontal, lo importante es que las actividades presenten una secuencia lógica.

Los rectángulos y las flechas son los principales símbolos de un diagrama de bloques. En cada rectángulo se escribe una frase concisa para describir la actividad que se realiza.

El contenido de cada rectángulo puede ser simple o sintetizar una actividad compleja. En este caso, cada rectángulo puede desagregarse para formar un diagrama mas detallado. El texto, puede iniciarse con un verbo en infinitivo, aunque no es obligatorio.

Como Construir un Flujograma
1.- Reunir al equipo de trabajo responsable del proceso

2.- Definir los límites del proceso
  • Preguntarse ¿Cuál es el producto o servicio que genera este proceso?
  • ¿Qué es lo primero que sucede?
  • ¿Cómo se inicia?
  • ¿Cuál es el último paso?

Escribir la respuesta a cada pregunta antes de plantearse la siguiente.

Por el momento, no tomar en cuenta las actividades intermedias.

3.- Identificar los pasos del proceso
  • Recorrer mentalmente el proceso
  • Escribir los pasos en hojas de rotafolio
  • Un nuevo paso comienza cuando se requiere un tipo nuevo de actividad
  • Relacionar todos los elementos, sin importar el tiempo que toma terminar cada uno
4.- Dibujar el Flujograma
  • Elegir el símbolo adecuado para cada paso y dibujarlo en el rotafolio
  • Identificar brevemente cada paso, indicado quién, qué o dónde ocurre
  • Conectar los pasos con una flecha
5.- Determinar el tiempo o distancia de cada paso
  • Es útil para encontrar dónde es posible reducir o eliminar tiempos ociosos.
  • Escribir los tiempos apropiados bajo cada paso
  • Registrar la distancia de cada movimiento puede permitir reducir distancias y tiempos.
  • Al determinar tiempo y distancia, se anotan el inicio y fin del proceso, después se cronometra, siguiendo físicamente cada paso y se registran las incidencias.
6.- Asignar un costo a cada paso (es opcional)
La información de costos puede ser un incentivo para simplificar el proceso, al reducir costos por pasos innecesarios o duplicados, tiempos prolongados o distancias que se pueden acortar.

Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17

Contabilidad de Costos James A. Cashin - Ralph S. Polimen

Contabilidad de Costos

Tabla de Contenidos
1. Papel que desempeña la contabilidad de costos
2. Naturaleza y Clasificación de los costos
3. Acumulación de costos
4. Contabilidad de costos por orden de trabajo
5. Contabilidad de costos por proceso I
6. Contabilidad de costos por proceso II
7. Costos indirectos
8. Costos estandar I
9. Costos estandar II
10. Costeo directo
11. Costeo por Subproductos y Coproductos

Tech News 14/01/12
C5N

Tech News - 14-01-12

Fuente: C5N

Using Rupture Disks with Pressure Relief Valves Department Editor: Scott Jenkins
Chemical Engineering©

Rupture Disks

Protecting process systems from overpressurization chemical process industries (CPI), and routinely used for this purpose. In certain situations, using rupture disks in combination with safety relief valves offers advantages that can increase safety and lower costs. The advantages include a significant lengthening of the service life of the relief valve, as well as prevention of process leakage.

What considerations should be made when combining devices?
And how can you decide when the combination is appropriate versus when it may not be useful?

Reasons to combine the two
When overpressurization occurs in situations where rupture disks are combined with safety relief valves, the disk bursts and a valve release follows. Once the pressure drops to a safe level, the safety valve reseats itself and continues to protect the system (Figures 1 and 2). There are several situations in which using the two systems together can lead to significant benefits.

Isolation of relief valve
Rupture disks can isolate a safety relief valve from process fluids and materials, so that, under normal operating conditions, the safety valve does not encounter the process chemicals. Since the safety valve is isolated, its internal mechanics will not come into contact with any caustic process chemicals or viscous materials that might interfere with the valve’s operation. Because valve internals are not routinely exposed to process materials, they remain in almost new condition, which allows longer periods between major overhauls.

Also, since the valve is isolated, it is not necessary to have the valve constructed in a material designed for continuous contact. For example, if the process fluid requires that Hastelloy be the preferred material of construction for continuous contact, a carbon-steel valve (with Hastelloy trim) combined with a Hastelloy rupture disk can be used. This will save a significant portion of the valve cost.

Leak prevention
Another major advantage of combining rupture disks with relief valves is leak prevention, under normal operating conditions, the rupture-disk barrier prevents process fluids from escaping into the atmosphere. An example described in Ref. 1 illustrates the savings that can be realized by the combined arrangement:

For conventional safety valves, American Petroleum Institute (API) standard 527 (Seat Tightness of Pressure Relief Valves) allows for an orifice size of F or smaller to have a maximum allowable leakage rate of 40 bubbles per minute (approximately 6 ft3 over a 24-h period, or 2,190 ft3/yr). This leakage is either lost, eroding profits and potentially harming the environment, or requires the installation of a system to recover the leakage.

Test-in-place
Combining rupture disks with safety valves allows the safety valve to be tested in place in the field. With a suitable, reverse-buckling rupture disk installed at the valve inlet, the safety relief valve can be field-tested by a single person with a portable pressure source.
system overpressurization
To accomplish this without opening any process piping, air (or nitrogen or another fluid) is injected from the pressure source into the chamber between the rupture disk and the safety valve inlet. The test pressure is increased until the valve releases, and should be within the set pressure tolerance of the valve.

What to consider
What factors should be considered when deciding whether to use rupture disks in combination with pressure safety relief valves or to use a rupture disk alone? There are likely many, depending on the particulars of the application, but here is a set of basic considerations with which to begin.

Cost
Rupture disks are considerably less expensive than safety relief valves, particularly when the valve needs to be constructed from exotic materials.

Process materials
A rupture disk alone is a good choice for overpressure protection in cases where process contents are inexpensive, nonhazardous and environmentally safe. A rupture-disk and relief-valve combination should be the choice when a leak-tight seal of the pressurized system is needed, and when the conservation of product within the pressurized system is
important, because it contains a corrosive, hazardous or expensive substance.

Speed
The quick-bursting action of a rupture disk makes it a first consideration when the potential for runaway reactions exists. Safety valves alone will not react quickly enough to protect a process system from the pressure of a deflagration or a detonation.

Liquid properties
Some liquids may freeze or cause icing under rapid depressurization, leading to blockage within a safety valve, and rendering it ineffective.

Also, highly viscous liquids, such as polymers, may not relieve pressure fast enough through a safety relief valve, and can create a danger of plug ging the valve.

Sizing
When sizing a relief valve, engineers need to determine the required fluid-flow capacity, and simultaneously to analyze the possible emergency scenarios, such as fire, loss of process cooling and equipment failure. The capacity requirements are then entered into a sizing equation to determine the relief valve area.

For a rupture-disk-safety-valve combination, the flow capacity of the combination must be confirmed to support the selection of both the valve and the disk. A combination capacity factor (CCF), which is often determined from ASME-certified capacity testing, can be used to support the decision. The CCF is calculated as the ratio between the capacity of the disk-valve combination over the relief valve capacity alone. CCFs should not exceed 1.

Pressure drop
The proper function of a relief valve requires that the pressure drop between the vessel it protects and the valve inlet is not more than 3% of the valve’s set pressure. Relief valves that are isolated by a rupture disk contribute to piping pressure drop, but by selecting rupture disks having low flow-resistance values, the pressuredrop target is usually reached.

Differential pressure
In a rupture-disksafety-valve combination, the differential pressure across the rupture disk must be monitored. The assembly shown in Figures 1 and 2 contains an excess flow valve to maintain atmospheric pressure in the space between the rupture disk and the safety valve, as well as a pressure gage on the relief valve to provide local confirmation of
pressure status.

References
1. Brazier, G., Combining rupture disks with safety relief valves, Chem. Eng., March 2009,
pp. 42–44. Editor’s note: This edition of “Facts at your Fingertips” is adapted from the article referenced above.

Editor’s note: This edition of “Facts at your Fingertips” is adapted from the article referenced above.

Rojo de Metilo y VogesProskauer Pruebas Bioquímicas
Lourdes Colón Ortiz

Clic en la imagen

Extintores Portátiles Infografía Economía
Consumer Eroski


Fuente: Eroski Consumer

Desafíos de la Vida Vida
BBC


Este episodio presenta las extraordinarias acciones que tienen que emprender los animales y las plantas para sobrevivir y reproducirse. Sé testigo de escenas increíbles, captadas a una velocidad de 1000 cuadros por segundo: monos capuchino que abren las semillas de las palmas con "martillos" de piedra; hipopótamos que emergen del agua y se lanzan al aire; y camaleones que roban sus presas de las telas de araña. Acompaña la carrera de los guepardos trabajando juntos para atacar a las veloces avestruces; observa a los delfines formando aros de limo perfectos para atrapar a los peces; y nada con una foca que lucha por evitar el ataque de las orcas asesinas entre los hielos de la Antártida.

La primera y más importante lección que todas las criaturas aprenden en la vida es la de descubrir cómo obtener comida suficiente. En el norte de Kenia, tres hermanos guepardos han desarrollado una nueva forma de cazar. En lugar de atacar a las presas pequeñas de manera individual, han aprendido que unidos son capaces de derribar a las veloces avestruces. Para ello, sin embargo, deberán ser excepcionalmente cuidadosos, ya que corren el riesgo de recibir una poderosa patada que podría resultar fatal.

Los delfines nariz de botella que viven en Florida Bay también han hecho un gran avance. Con el objetivo de atrapar a las presas que nadan rápidamente, el delfín crea un anillo de barro para rodear al pez, dando un fuerte golpe con su cola en el limo ablandado, mientras nada describiendo un gran círculo. A medida que el barro aumenta rápidamente en el agua, el anillo se hace más pequeño y el pez es atrapado. Al sentir pánico, el animal salta fuera del agua, ¡justamente en la boca de los delfines que lo están esperando!

La batalla entre los animales y las plantas también puede resultar muy intensa. Los monos capuchinos de cabeza dura de Brasil demuestran un nivel de habilidad extraordinario, para romper los caparazones de las semillas de palmas que tanto aman. Estos animales recogen las semillas, les quitan las cáscaras y las dejan secar. Luego de unas cuantas semanas, las transportan a una enorme piedra tipo yunque y las rompen con una piedra pesada que hace las funciones de "martillo". Para perfeccionar el complejo arte de la apertura de semillas un mono capuchino puede necesitar ocho años.

En la vida de todo animal llega siempre el momento de que su mente se enfoque en la reproducción. La mosca de la fruta, por ejemplo, se caracteriza por una técnica sorprendente. Aspira burbujas de aire y las sopla a través de su cabeza para expulsar los ojos. Esto resulta esencial para atraer a las hembras, ya que los machos con mayor envergadura de ojos obtienen la mayor cantidad de hembras.

Los animales también cubren distancias extraordinarias para proteger y alimentar a sus crías. La diminuta rana flecha roja conduce a sus renacuajos a criaderos ubicados entre las plantas, que se encuentran a gran altura en la cubierta forestal del bosque lluvioso. Como allí no hay comida para los renacuajos en crecimiento, ésta expulsa un huevo no fecundado para cada uno (cada pocos días) y trepa el equivalente a casi media milla en su esfuerzo por cuidarlos. Pero hay muchas cosas que únicamente un padre puede hacer. Cuando los pingüinos barbijo empluman, no tienen a ningún adulto a su alrededor que los advierta de los peligros que los acecha. Guiados por el instinto, los polluelos se dirigen al mar para encontrar comida. Sin apenas saber nadar, muchos caen víctimas de los imponentes y despiadados leopardos marinos que los esperan.

Finalmente, lograr los desafíos de la vida, ya sea encontrando lo suficiente para comer o burlando a los depredadores, solamente será un hecho significativo si el objetivo final de la existencia puede ser logrado: transmitir los genes a alguien para asegurar la supervivencia de la próxima generación.

VIDA es un documental sobre la biología del planeta, que presenta una visión global sobre las estrategias especializadas y el comportamiento extremo que los seres vivos desarrollan para garantizar su supervivencia. Producida a lo largo de cuatro años, la serie fue totalmente filmada en alta definición. Disfruta de Vida y de la Evolución en Acción.

Cómo se hace Bon o Bon? Discovery Channel

Click on image

Bon o Bon es la marca con la que se comercializan unas series de golosinas muy populares y conocidas en Argentina y Chile. La golosina pertenece al grupo argentino Arcor.

Bon o Bon comenzó a venderse en el año 1984 con el fin de ampliar la variedad de productos de Arcor. Según Guillermo Storni, gerente de negocios, fue Luis Pagani (alma máter de Arcor), quien eligió el nombre durante una de las charlas en la Cámara Argentina de Anunciantes. Se calcula que cerca de 600 millones de unidades anuales se exportan a 80 países. En el mercado argentino se estima que el consumo de Bon o Bon llega a las 5,5 unidades per cápita, aunque es en Chile, donde esa cifra se eleva a seis bombones por persona al año.

Existe además, una fábrica en México y en Brasil, donde compite con los chocolate bites de marcas reconocidas como Nestlé, Garoto, Lacta - Kraft, etc.1

Actualmente, existen cuatro variedades de estos bombones, Bon o Bon original, de chocolate blanco, suave, y de chocolate negro. En ocasiones especiales, sale al mercado una edición limitada llamada gold. En México, además existe una quinta variedad sabor café lanzada recientemente...Ref.

Fuente video: HiramVilchez

Elucidación Estructural de Proteínas
en solución por RMN Oscar Millet

Espectro HSQC

La aplicación de la química en la biología constituyó, a principios del siglo XX, el principal detonante de la exploración de la estructura de la materia biológica.

Sin embargo, hubo que esperar al desarrollo de diferentes técnicas espectroscópicas, y no fue hasta mediados de los años cincuenta que Perutz y Kendrew obtuvieron la estructura cristalográfica de la mioglobina de esperma de ballena, la primera estructura tridimensional de una proteína (1).

En la misma década, Watson y Crick interpretaron correctamente los datos cristalográficos proporcionados por Rosalind Franklin y pasaron a la historia por descubrir la doble hélice del ADN (2). Desde entonces la importancia de la biología estructural no ha parado de crecer y hoy la elucidación de la arquitectura molecular es fundamental para la comprensión de los procesos biológicos así como en el diseño de fármacos. Sin embargo, a pesar del esfuerzo invertido, la estructura de biomacromoléculas sigue siendo una tarea que se puede considerar de difícil a imposible, dependiendo del sistema de estudio. Los trabajos de Ernst y Wüthrich, ambos de nacionalidad Suiza y ambos premio Nobel, han revolucionado la resonancia magnética nuclear (RMN) adecuándola para el estudio de sistemas biológicos (3, 4). Actualmente la RMN permite, en casos favorables, obtener la estructura tridimensional de proteínas, ácidos ribonucleicos y fragmentos de ADN (5, 6). En la presente actualización se discutirá el proceso de elucidación estructural por RMN, haciendo especial énfasis en los últimos desarrollos de la técnica así como en las ventajas y las limitaciones de la misma.

Conceptos básicos de RMN
En presencia de un campo magnético permanente se produce un desdoblamiento de niveles energéticos de los núcleos atómicos debido al efecto Zeeman. Las poblaciones de equilibrio de dichos niveles pueden alterarse mediante pulsos de radiofrecuencia. La resonancia magnética nuclear consiste en la medida de la señal que se produce en el retorno del sistema al equilibrio. Estas mediciones proporcionan información de la distribución de niveles cuánticos que, en grado último, son una expresión de la constitución de la materia.

El observable más común en RMN se denomina desplazamiento químico que, de manera simplificada, equivale a la posición que cada señal ocupa en el espectro. El desplazamiento químico es muy importante porque permite diferenciar por el tipo de núcleo observado (carbono, protón, nitrógeno,...), por las características químicas del núcleo bajo consideración (protones alifáticos, aromáticos,...) y por el entorno local de cada núcleo (protón rodeado de protones frente a un protón cercano a carbonos). Así, el desplazamiento químico constituye un exquisito descriptor de la estructura de la materia y por ello la RMN, tras ser inventada por los físicos, ha interesado a químicos primero y después a biólogos (7).

Los átomos que están unidos por enlaces producen un desdoblamiento de señales en el espectro debido al acoplamiento escalar entre los núcleos involucrados. Este desdoblamiento puede aumentar la complejidad del espectro porque incrementa el número de señales (de hecho hay métodos para eliminar este efecto) pero proporciona una valiosa fuente de información para establecer la topología química de la molécula. El acoplamiento escalar ha permitido diseñar la espectroscopía multidimensional en la que los desplazamientos químicos de un tipo de núcleos (p. ej. protón) se comparan con los de otro núcleo (p. ej. carbono) en un espectro bidimensional en el que tan solo aparece una señal en el plano protón/nitrógeno en aquellas coordenadas que haya un par de núcleos que están acoplados escalarmente.

Un segundo tipo de efecto (el acoplamiento dipolar) es proporcional al ángulo que forma el espín nuclear con el eje principal del campo magnético externo y también es susceptible de proporcionar información estructural. El problema es que, debido al movimiento de la molécula que se produce en solución, todas las orientaciones son equiprobables y la componente neta de dicho acoplamiento se promedia a cero. Hace algunos años, Tjandra y Bax utilizaron bicelas lipídicas para orientar a las moléculas en solución con lo que se reintroducía el acoplamiento dipolar sin perjuicio del resto de propiedades espectrales (8, 9). Este procedimiento se ha demostrado muy exitoso y ha conllevado la aparición de un número elevado de medios orientadores diferentes.

Quizás el observable más importante en RMN es el efecto nuclear Overhauser (el denominado NOE) que consiste en la medida de la una velocidad de relajación cruzada entre dos núcleos. Es relevante porque esta información proporciona una estimación de la distancia más corta entre los dos núcleos involucrados, independientemente de que estén unidos por enlaces o no.

RMN de proteínas en solución
Debido a que la diferencia de niveles anteriormente citada es energéticamente muy pequeña, la RMN es una técnica muy insensible. Esto implica que hay que trabajar con concentraciones elevadas de proteína y, dado que la evolución no ha diseñado a estas moléculas para tal fin, fenómenos de agregación y/o precipitación ocurren con relativa frecuencia. Las casas comerciales que fabrican los imanes de resonancia son conscientes de este problema y el estudio de biomoléculas es el motor para que estas compañías diseñen imanes y dispositivos cada vez más potentes. Un ejemplo exitoso de esta investigación lo constituyen las sondas criogénicas que aumentan mucho la sensibilidad del equipo con la subsiguiente reducción en la concentración efectiva de proteína en la muestra.

No todos los isótopos nucleares son sensibles al fenómeno de la RMN. De hecho, de los átomos más importantes que constituyen a las proteínas (hidrógeno, carbono, nitrógeno y oxígeno) tan solo el protón presenta desdoblamiento de niveles energéticos en presencia de un campo magnético y es casi 100% el constituyente de los núcleos de hidrógeno. En el caso del carbono y del nitrógeno, los isótopos activos son el C13 y N15 que presentan abundancias naturales del 1,2% y 0,1% respectivamente. Así, para "activar" estos núcleos para ser estudiados por RMN, se acostumbra a preparar muestras marcadas en las que se enriquecen en estos isótopos nucleares.

Esto se puede conseguir mediante técnicas de biotecnología en las que las fuentes de carbono y nitrógeno están controladas (10). Por último, el oxígeno no presenta buenas propiedades espectroscópicas y no se suele estudiar en RMN biomolecular.

Los diferentes experimentos de RMN específicamente diseñados para proteínas se han diseñado a partir de las características químicas de las mismas. El experimento más importante que se aplica es el HSQC (del inglés heteronuclear single quantum correlation). Este experimento correlaciona los núcleos de protón que se encuentran a un enlace de un núcleo de nitrógeno. En el caso de las proteínas esta situación se da una vez para cada aminoácido (en su enlace peptídico). Así, en el espectro HSQC de una proteína aparecerá una señal por cada aminoácido y este experimento constituye un verdadero "carné de identidad" de la proteína. Contando el número de señales en el espectro ya sabemos cuantos aminoácidos tiene la proteína, aunque esta sería una información que se puede obtener de manera mucho menos costosa mediante otras técnicas. Más interesante es la información que proporciona la posición de las señales en el espectro. Tal y como se muestra en la Figura 1, las proteínas que están desplegadas muestran una dispersión de señales muy pobres, sobretodo en la dimensión de protón y que contrasta con la diversidad de desplazamientos químicos que se observan en una proteína con estructura terciaria (o cuaternaria). Esto es así porque la conformación plegada añade una contribución adicional al desplazamiento químico que permite dispersar aún más las señales.

Asignación espectral
Con el fin de proceder a la elucidación estructural, la primera tarea que se debe realizar es la asignación de los espectros de RMN. Dicho de otra manera, se deben identificar cada una de las señales del espectro (p. ej. el de la Figura 1) con los correspondientes aminoácidos de la secuencia de la proteína. Para ello se utiliza nuevamente el acoplamiento escalar y se registran una serie de experimentos que nos relacionan los núcleos que están conectados por enlaces. Algunos de estos experimentos nos dan información acerca de la naturaleza del residuo (p. ej. si el carbono alfa pertenece a una leucina o a una prolina). Otros experimentos nos permiten establecer la conectividad con el aminoácido precedente para así encajar las piezas (aminoácidos) en el rompecabezas (la secuencia). En principio debiera ser posible obtener la información de la asignación de la totalidad de señales en el espectro. Sin embargo, en la práctica se suele asignar entre un 85% y un 98% de las mismas, debido a problemas de solapamiento de señales y/o de desaparición de las mismas por otros fenómenos (relajación, intercambio, etc...).

El tamaño de la proteína es una variable importante a la hora de abordar la asignación espectral. Obviamente la complejidad del proceso aumenta linealmente con el número de aminoácidos implicados pero quizás más importante es que la probabilidad de que dos señales compartan desplazamiento químico (solapamiento de señales) aumenta también. Finalmente existe un tercer problema derivado del aumento del peso molecular de la molécula que es el del ensanchamiento de la señal debido a un movimiento más lento de la molécula en la solución. Como la integral de la señal depende solo del número de núcleos implicados (que no cambia), un ensanchamiento de señal inevitablemente va acompañado de una disminución de la relación señal/ruido. Este fenómeno ha limitado el tamaño máximo de moléculas que se podían utilizar hasta 15-20 KDa. El ingenioso desarrollo de un método de compensación de mecanismos de relajación (denominado TROSY) ha permitido resolver este problema en gran parte y, actualmente se puede trabajar más o menos rutinariamente con proteínas de hasta 40 kDa (11, 12). El laboratorio de Lewis Kay (Toronto) ostenta la proteína más grande jamás resuelta por RMN, la malato sintasa G de 82 kDa (13, 14).

Medida de observables
Tal y como se ha indicado anteriormente, el NOE constituye el principal observable en la determinación de la estructura de proteínas por RMN. En general se considera que todos los pares de núcleos que se encuentren a una distancia igual o inferior a 5 Å son susceptibles de producir un NOE. Dichos NOES se detectan en un experimento multidimensional denominado NOESY en el que un determinado NOE aparece como un pico de cruce situado en las coordenadas de los desplazamientos químicos de los dos núcleos implicados. En principio, la intensidad del pico es inversamente proporcional a la sexta potencia de la distancia y, de esta relación, se debieran establecer disposiciones espaciales más o menos exactas. El problema es que las proteínas no son entidades estáticas y esta distancia está en constante fluctuación. El movimiento de los núcleos contribuye con otros términos de la ecuación de una manera mucho menos predecible, haciendo que la extracción de distancias exactas a partir de los NOEs no sea posible. Sin embargo, la intensidad del NOE se utiliza como un indicador cualitativo acerca de la cercanía (o lejanía) de los dos núcleos que lo generan.

El acoplamiento escalar también proporciona información estructural (además de la componente topológica ya mencionada anteriormente). El acoplamiento a tres enlaces es función del ángulo diedro que lo conforma. Los elementos de estructura secundaria adoptan posiciones específicas en el ángulo diedro (típicamente representadas en el diagrama de Ramachandran). Así, la medida de los acoplamientos escalares a tres enlaces es útil para el refinamiento de la estructura (vide infra).

Igualmente, los acoplamientos dipolares convenientemente reintroducidos con ayuda de un medio orientador proporcionan una valiosa información estructural. Este observable está especialmente indicado para obtener información a larga distancia (por ejemplo la orientación de dos dominios diferentes de una misma proteína) (15), dado que es muy complementaria a la obtenida con el NOE.

Finalmente, el propio desplazamiento químico contiene una contribución conformacional y ayuda en el proceso de refinado de la estructura. Además, cabe destacar que se pueden utilizar otros observables como las restricciones paramagnéticas que también contienen información estructural.

Cálculo de la estructura
El conjunto de restricciones experimentales medidas (ver apartado anterior) se utiliza para establecer un modelo computacional que es consistente con todos los datos. Para ello se utiliza la mecánica molecular modulada en presencia de un campo de fuerzas (16). Inicialmente se parte de una conformación de la proteína totalmente extendida. El programa de modelado va probando las diferentes conformaciones hasta encontrar una que satisfaga las siguientes condiciones:
  1. cumpla con los preceptos del campo de fuerzas impuesto (en términos de ángulos y distancias) y
  2. ponga en acuerdo al mayor número posible de restricciones experimentales.
Para ello el programa explora el espacio conformacional mediante un método denominado simulated annealing que se asemeja a los ciclos de frío (poco movimiento) y calor (mucho movimiento) en el proceso de forja de un metal. Al final se obtiene una batería de estructuras que minimizan las restricciones experimentales (que contienen el menor número de violaciones) y que se considera el modelo refinado. A diferencia de otras técnicas, en RMN no se considera únicamente una estructura sino que se representan varias de ellas (ver Figura 2) con energías similares para ver la calidad de los datos experimentales: cuanto mayor sea el número de restricciones experimentales utilizadas, más parecidas van a ser estas estructuras (equivalente a mayor resolución).
Unión IGg de la proteína L de streptococcus magnus
Consideraciones finales
Tal y como se ha descrito en la presente actualización, la RMN constituye una poderosa técnica para la elucidación estructural de proteínas siempre que la muestra cumpla una serie de propiedades y con la ventaja de que proporciona información en solución. Es de remarcar que la RMN es una técnica muy versátil y que permite realizar estudios de caracterización de la dinámica de proteínas y de sus interacciones con otros ligandos y efectores proteicos. Por todo ello, la RMN ocupa un lugar central en la biología estructural moderna.

Referencias
Kendrew JCPerutz MF (1957) X-ray studies of compounds of biological interest Annu Rev Biochem 26: 327-372.
Watson JDCrick FH (1953) Molecular structure of nucleic acids; a structure for deoxyribose nucleic acid Nature 171: 737-738.
Ernst RR (1992) Nobel Lecture. Nuclear magnetic resonance Fourier transform spectroscopy Biosci Rep 12: 143-187.
Wuthrich K (1989) Determination of three-dimensional protein structures in solution by nuclear magnetic resonance: an overview Methods in enzymology 177: 125-131.
Tugarinov V, Hwang PMKay LE (2004) Nuclear magnetic resonance spectroscopy of high-molecular-weight proteins Annu Rev Biochem 73: 107-146.
Shajani ZVarani G (2007) NMR studies of dynamics in RNA and DNA by 13C relaxation Biopolymers 86: 348-359.
Ernst RR (1987) Methodology of magnetic resonance imaging Quarterly reviews of biophysics 19: 183-220.
Tjandra NBax A (1997) Direct measurement of distances and angles in biomolecules by NMR in a dilute liquid crystalline medium Science (New York, N.Y278: 1111-1114.
Tjandra N, Omichinski JG, Gronenborn AM, Clore GMBax A (1997) Use of dipolar 1H-15N and 1H-13C couplings in the structure determination of magnetically oriented macromolecules in solution Nature structural biology 4: 732-738.
Goto NKKay LE (2000) New developments in isotope labeling strategies for protein solution NMR spectroscopy Current opinion in structural biology 10: 585-592.
Pervushin K, Riek R, Wider GWuthrich K (1997) Attenuated T2 relaxation by mutual cancellation of dipole-dipole coupling and chemical shift anisotropy indicates an avenue to NMR structures of very large biological macromolecules in solution Proceedings of the National Academy of Sciences of the United States of America 94: 12366-12371.
Riek R, Pervushin KWuthrich K (2000) TROSY and CRINEPT: NMR with large molecular and supramolecular structures in solution Trends Biochem Sci 25: 462-468.
Grishaev A, Tugarinov V, Kay LE, Trewhella JBax A (2008) Refined solution structure of the 82-kDa enzyme malate synthase G from joint NMR and synchrotron SAXS restraints Journal of biomolecular NMR 40: 95-106.
Tugarinov V, Choy WY, Orekhov VYKay LE (2005) Solution NMR-derived global fold of a monomeric 82-kDa enzyme Proceedings of the National Academy of Sciences of the United States of America 102: 622-627.
Millet O, Hudson RPKay LE (2003) The energetic cost of domain reorientation in maltose-binding protein as studied by NMR and fluorescence spectroscopyProceedings of the National Academy of Sciences of the United States of America 100: 12700-12705.
Lopez-Mendez BGuntert P (2006) Automated protein structure determination from NMR spectra Journal of the American Chemical Society 128: 13112-13122.

Autor: Oscar Millet
Unidad de Biología estructural, CICbioGUNE, Parque Tecnológico de Vizcaya, Ed. 800, 48160 Derio, España.

Fuente: Revista QuímicaViva

Tech News 01-01-2012
C5N

Curso Diseño de Reactores

Fuente: C5n

Michaelis-Menten Kinetics in a Chemostat Benson R. Sundheim


Fuente: Wolfram.com

Ref: Wikipedia

Régimen Adiabático en un RTACMP Diseño de Reactores Químicos
F.Cunill, M.Iborra, J.Tejero

Reactor

Si no existe intercambio de calor entre el sistema y los alrededores se dice que el régimen térmico es adiabático. En este caso Q es 0 y las ecuaciones correspondientes son:

Ecuación formalmente análoga a la obtenida para un reactor discontinuo pero representa “físicamente” un solo punto. Es necesario señalar que a pesar de ser régimen adiabático en estado estacionario la temperatura de un reactor tanque agitado continuo de mezcla perfecta es única: es un punto de operación.

Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10

Development of Cellulosic Biofuels Green Technology
Chris Somerville

Click on image

Chris Somerville [Director of the EBI, UC Berkeley]

Abstract
The earth receives approximately 4000 times as much energy from the sun each year as the total projected human energy use in 2050. Because plants can be deployed on a large scale to capture and store solar energy, I am interested in exploring the degree to which it may become possible to use photosynthesis for sustainable production of renewable carbon-neutral energy. In considering this possibility, the Secretary of Energy of the US has called for the replacement of 30% of the liquid fuels used in the US with biofuels by 2030. I will outline some of the technical issues that must be addressed in order to understand if it is possible to reach this and related goals. I will also discuss some of the areas in which I envision significant technical advances may enable evolution of the biofuels industry.

Biography
Chris Somerville is the Director of the new Energy Biosciences Institute at UC Berkeley,University of Illinois and Lawrence Berkeley National Laboratory and a professor of Plant and Microbial Biology at UC Berkeley. He has published more than 200 scientific papers and patents in plant and microbial genetics, genomics, biochemistry, and biotechnology.His current research is focused on the characterization of proteins, such as cellulose synthase, implicated in plant cell wall synthesis and modification. Somerville has served as a member of the scientific advisory boards of numerous academic institutions, corporations, and private foundations in Europe and North America. He is a member of the US National Academy of Sciences, The Royal Society of London and the Royal Society of Canada and has received numerous scientific awards.

Fuente: Citrisuc

Proteínas, Aminoácidos y Enzimas Pruebas Bioquímicas
Lourdes Colón Ortiz

Clic en la imagen

Hysys & Aspen Plus 7.3 Instalación en Win7 X64

Hysys & Aspen Plus 7.3 - Avibert

Innovative Food Processing Technologies Advances in Multiphysics Simulation
K. Knoerzer, P. Juliano, P. Roupas, C. Versteeg, Edit.

Processing Technologies

Table of Contents
1. Introduction to Innovative Food Processing Technologies: Background, Advantages, Issues, and Need for Multiphysics Modeling
Gustavo V. Barbosa-Cánovas, Abdul Ghani Albaali, Pablo Juliano, and Kai Knoerzer
2. The Need for Thermophysical Properties in Simulating Emerging Food Processing Technologies
Pablo Juliano, Francisco Javier Trujillo, Gustavo V. Barbosa-Cánovas, and Kai Knoerzer
3. Neural Networks: Their Role in High-Pressure Processing
José S. Torrecilla and Pedro D. Sanz
4. Computational Fluid Dynamics Applied in High-Pressure Processing Scale-Up
Cornelia Rauh and Antonio Delgado
5. Computational Fluid Dynamics Applied in High-Pressure High-Temperature Processes: Spore Inactivation Distribution and Process Optimization
Pablo Juliano, Kai Knoerzer, and Cornelis Versteeg
6. Computer Simulation for Microwave Heating
Hao Chen and Juming Tang
7. Simulating and Measuring Transient Three-Dimensional Temperature Distributions in Microwave Processing
Kai Knoerzer, Marc Regier, and Helmar Schubert
8. Multiphysics Modeling of Ohmic Heating
Peter J. Fryer, Georgina Porras-Parral, and Serafi m Bakalis
9. Basics for Modeling of Pulsed Electric Field Processing of Foods
Nicolás Meneses, Henry Jaeger, and Dietrich Knorr
10. Computational Fluid Dynamics Applied in Pulsed Electric Field Preservation of Liquid Foods
Nicolás Meneses, Henry Jaeger, and Dietrich Knorr
11. Novel, Multi-Objective Optimization of Pulsed Electric Field Processing for Liquid Food Treatment
Jens Krauss, Özgür Ertunç, Cornelia Rauh, and Antonio Delgado
12. Modeling the Acoustic Field and Streaming Induced by an Ultrasonic Horn Reactor
Francisco Javier Trujillo and Kai Knoerzer
13. Computational Study of Ultrasound-Assisted Drying of Food Materials
Enrique Riera, José Vicente García-Pérez, Juan Andrés Cárcel, Victor M. Acosta and Juan A. Gallego-Juárez
14. Characterization and Simulation of Ultraviolet Processing of Liquid Foods Using Computational Fluid Dynamics
Larry Forney, Tatiana Koutchma, and Zhengcai Ye
15. Multiphysics Modeling of Ultraviolet Disinfection of Liquid Food—Performance Evaluation Using a Concept of Disinfection Effi ciency
Huachen Pan
16. Continuous Chromatographic Separation Technology—Modeling and Simulation
Filip Janakievski
17. The Future of Multiphysics Modeling of Innovative Food Processing Technologies
Peter J. Fryer, Kai Knoerzer, and Pablo Juliano

Alcohol de Melaza Cámara de Alcoholes - Argentina

Alcohol de melaza
Clic en la imagen

Fuente: Manfenix08

Caffeine Extraction from green coffee with supercritical CO2
Ben Krasnow

Clic en la imagen

I finally succeeded in extracting caffeine from green coffee beans by using supercritical CO2. I built a high pressure chamber from 2" steel pipe fittings, and poured in 200mL of water. There is an aluminum screen above the water line, which held 0.75 lbs of moisturized green coffee beans in the upper part of the chamber. I added liquid CO2 to the chamber, then closed all valves and raised the temperature, making the CO2 pass into the supercritical phase. I left the system overnight at about 60*C, 3000 psi, then drained the water. It was very black due to impurities and some bean burning that occurred where my electric strip heater caused localized overheated zones in the chamber. The water was highly caffeinated, and tasted somewhat like coffee. I used a typical hydrocarbon extraction process to isolate the caffeine from the water (will show this in a later video).

Fuente: Bkraz333

Safer Bacteriófago que elimina la E. Coli

Safer

Dolores estomacales, diarrea e incluso hemorragias gástricas son algunas de las consecuencias que causa la infección de una bacteria llamada Escherichia coli. Este microorganismo está presente en carnes crudas, leche y huevos sin pasteurizar. Para reducir el peligro de infección es importante cocer bien estos productos o consumirlos pasteurizados.

Sin embargo, la bacteria también está presente en frutas y verduras y, en algunas ocasiones, el lavado de estos productos no garantiza que su consumo sea seguro. El microorganismo, además, puede estar presente en el agua de piscinas. Para resolver ese problema, un grupo de biotecnólogos de la Universidad Andrés Bello desarrollaron un nuevo producto de origen natural que logra eliminar completamente la Escherichia coli.

Se trata de Safer, un producto en polvo que puede ser disuelto en agua y rociarlo sobre los alimentos o puede ser incorporado como un ingrediente extra en preparaciones. Eso es posible porque el producto es de origen biológico y no contiene sustancias químicas.

“La principal innovación de Safer es utilizar Bacteriófagos como método de control microbiológico, eliminando a las bacterias patógenas presentes en los alimentos y por lo tanto mejorando la seguridad alimentaria”, explica Diego Belmar, ingeniero en Biotecnología de la U. Andrés Bello. El experto también es jefe de operaciones de Phage Technologies, emprendimiento encargado del desarrollo de este producto, en el cual también participan Hans Pieringer y Nicolás Ferreira, también egresados de la Escuela de Biotecnología la U. Andrés Bello.

Los bacteriófagos son pequeñas partículas de origen biológico que son conocidas por ser antagonistas innatos de las bacterias en el medioambiente. Su uso hace que Safer no sea tóxico, no modifique características del alimento como sabor y aroma. Eso lo convierte en una alternativa ideal para ser usado en ensaladas u otras recetas que contengan frutas o verduras crudas. Entre los planes futuros de estos jóvenes científicos chilenos se encuentra el desarrollo de productos similares pero para proteger contra otros microorganismos como la Salmonella y la Listeria.

Fuente: Veoverde.com

Reducción de Costos - Mejora Continua Calidad Total

Otro factor que habrá que evaluar, en lo que respecta al sistema de calidad, es la reducción de costos, para ello, cabe hacerse las siguientes preguntas.

¿Existen y como se desarrollan los proyectos para mejorar costos?

¿Están definidos los costos de la mala calidad y se utilizan para alta dirección como una base para tomar decisiones?

Sin lugar a dudas, las respuestas a las interrogantes planteadas ayudarán a evaluar cual es el status del sistema de calidad de una empresa y de la cual se puede desprender una serie de acciones encaminadas a mejorarlo.

Mejora de la Calidad

Este proceso es el medio de elevar las cuotas de la calidad a niveles sin precedente (avances). La metodología consta de una serie de pasos universales:

♦ Establecer la infraestructura necesaria para conseguir una mejora de la calidad anualmente

♦ Identificar las necesidades concretas para mejorar - los proyectos de mejora

♦ Establecer un equipo de personas para cada proyecto con una responsabilidad clara de llevar el proyecto a buen fin

♦ Proporcionar los recursos, la motivación y la formación necesaria para que los equipos
  • Diagnostiquen las causas
  • Fomenten el establecimiento de un remedio
  • Establezcan los controles para mantener los beneficios
Implementar cualquier enfoque administrativo es uno de los aspectos más difíciles, pues aunque haya claridad y convencimiento respecto a sus conceptos fundamentales, el problema surge al momento de aplicarlos a organizaciones concretas, que al estar concluidas por seres humanos, se convierten en estructuras induplicables y únicas.

Por ende, es decisivo que antes de proceder a ejecutar la estrategia empecemos por planear cómo hacerlo. Para lo cual hay que entender de dónde venimos, hacia donde vamos, qué somos ahora y que deseamos ser mañana. Las dos primeras interrogantes se refieren a la organización como un conjunto que abarca una serie de elementos como: tecnología, equipos, mercados, recursos materiales, personal, recursos financieros, etc. Las segundas se relacionan con los valores de individuos que la integran, cuyo dinamismo la mueve, y que sumados conforman lo que denomina cultura organizacional.

Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16

Tech News 24-12-11
C5N

Avibert
Tech News 24-12-11 C5N - Avibert

Fuente: C5N

Régimen Isotérmico en un RTACMP Diseño de Reactores Químicos
F.Cunill, M.Iborra, J.Tejero

Se define régimen isotermo en un reactor tanque agitado continuo de mezcla perfecta cuando existe intercambio de calor entre el sistema reaccionante y el entorno. El balance macroscópico de entalpía para un reactor continuo tanque agitado en régimen estacionario y sin cambios de fase se reduce a:


si sólo existe una entrada y una salida, si w1=w2 en unidades molares ya que o se trabaja en unidades másicas y cp se suponen constante:

Esta ecuación relaciona la temperatura de salida del fluido, y por tanto la del reactor, con el caudal de calor a eliminar del reactor. Si sólo se tiene una reacción la ecuación anterior se reduce a,

la cual junto con el balance macroscópico de materia y la conversión de A

proporciona la siguiente ecuación:

Como son constantes (estado estacionario), la relación es lineal y formalmente análoga a la obtenida para un reactor discontinuo pero representa “físicamente” un solo punto. Puesto que las unidades de son de temperatura ((J/s)/(kg/s·J/(kgK))) en realidad la ecuación es


Y su interpretación gráfica se presenta en la última figura.

Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9