Ir Arriba Ir abajo


Bienvenidos en chino
Mobbing-acoso laboral-IRG
contador de visitas

Theoretical Mass Balance A Single Strike Boiling Scheme

The refinery Mass and Energy Balance was developed using Sugars®. An extract from the diagram for that balance is shown in Figure It can be seen that the feedstock to the product boiling is made up of the two liquor streams:

  • 124.79 t/h of fine liquor plus intermediate sugar melt, 340 ICUMSA, 99.39 purity
  • 54.48 t/h of high purity product run-off, 1305 ICUMSA, 97.92 purity;
Tracing back shows that 70% of the product run-off is returned to the product boiling, only 30% going forward to the intermediate boiling. The back-boiling of the intermediate strike is less adventurous with 55% of the run-off returned, 45% going forward to the normal recovery boilings.

We should, at this point, perhaps turn to the core thesis of the 2005 paper: that colour elimination is considerably better than the rule of thumb 10:1 ratio and that crystal yields are also better than assumed provided that the refinery is run correctly. That leads naturally to the acceptance of a higher colour fine liquor as can be seen in the balance.

In fact, Sugars® calculates the feed as a single stream and arrives at an average feed liquor colour of 650 with a product colour of 28 : a colour elimination factor of 23.2 : 1. That is rather simplistic because, as explained earlier, boiling is started with the low colour [340 ICUMSA] fine liquor and finished with the higher colour [1305 ICUMSA] high purity run-off from previous boilings.

Sugars®
Sugars International LLC began operations in November 1984 and development of the Sugars™ Computer Program began in January of 1985. The program was first used in 1985 to calculate the heat and material balance and to evaluate a sucrose separator for molasses desugarization at the Twin Falls beet sugar factory owned by the Amalgamated Sugar Company. The first copies of the program were licensed to Spreckels Sugar Company in May of 1986 and American Crystal Sugar Company in July of 1986. Other sugar companies began licensing it in 1987. The program was called PC-SUGARS at the time. The earliest versions of the program did not include integration of the evaporator balance into a model. With the release of version 2.20 on July 1, 1988, a completely integrated model of a sugar factory was possible for the first time, and the first models of complete beet sugar factories were built in July of 1988. The name of the program was simplified to Sugars when version 2.22 was released in November of 1988. In December of 1998, the new Sugars for Windows version of Sugars was introduced for the Microsoft Windows 95, 98 and NT 32 bit operating systems. The Windows version incorporated a full graphical interface for building models using Visio® software as the graphical diagramming engine. In 1999, Visio Corporation was purchased by Microsoft and subsequently Visio was integrated into the Microsoft Office product line.

The Advanced Monitoring System (AMS) was introduced in 2003 at the CITS meeting in Madrid, Spain as a joint development of Industrieprojekt GmbH and Sugars International LLC. This system is an add-on to Sugars for importing process data into the Sugars model to provide on demand mass, energy and color balances. It can substantially reduce the number of data points needed to evaluate a process. The AMS was first licensed to companies starting in 2004.

Many new features and enhancements have been added to Sugars to expand its versatility since its introduction in 1986. Today, Sugars can model beet, or cane sugar factories and refineries of almost any configuration. Sugar companies in more than thirty-five (35) countries have used it to predict how changes in the process and/or equipment will affect the performance of factories and refineries. The information from these predictions is used to make investment and process decisions. Sugars has modeled thousands of process variations covering both beet and cane and its results have been verified independently by actual factory data. It is the most widely used sugar process simulation program in the world.

GeoINTA Software en línea

Clic en la imagen

GeoINTA es un sistema de consulta de mapas, imágenes y bases de datos georeferenciadas de la República Argentina.

Para su manejo Ver Ayuda

Las Siete Maravillas de la Antigüedad History Channel

Las Siete Maravillas de la Antigüedad - Avibert

Sobre muchas de estas maravillas se conserva una breve descripción literaria, pero no su imagen real. Así del Coloso de Rodas no se sabe que forma ni qué apariencia tenía; pero se descarta, por motivos técnicos, que tuviera las piernas abiertas sobre la entrada del puerto de Rodas, como representaciones posteriores nos lo han mostrado. Sobre el Faro y el Mausoleo existen dibujos y descripciones en monedas y del Templo de Artemisa se puede suponer su diseño por otros templos contemporáneos suyos. La existencia de los Jardines Colgantes no ha sido verificada, y el que muchos relatos griegos sobre la Babilonia conquistada por Alejandro Magno no los mencionaran hacía pensar que fueron fantasías de los soldados alejandrinos al llegar a las exuberantes riberas del Éufrates, tras haber transitado por inmensas regiones áridas y desérticas en su marcha por el Imperio Persa. Sin embargo, excavaciones arqueológicas han encontrado cimientos de una gran construcción y el sistema de riego, por lo que su existencia se tiene por probable.

Las maravillas de la antiguedad surgen de los listados de diferentes historiadores y viajeros griegos. Estas maravillas fueron construidas en diferentes etapas de la historia antigua y su duracion tambien fue variable. Algunas existieron por unos pocos años antes de ser destruidas, mientras que las piramides aun existen luego de 4500 años. Como estos listados fueron hechos por griegos obviamente tienen una fuerte influencia de su civilizacion, ademas de ubicar solo las maravillas dentro del mundo conocido por los griegos, por ejemplo no se listan maravillas chinas ya que ambas civilizaciones no tenian contacto en aquella época.

Fuente: ProGnosio

Modelling Microbial Responses in Food edited by Robin C. McKellar Xuewen Lu

Modelling Microbial Responses in Food

Table of Contents
Chapter 1
Experimental Design and Data Collection
Maria Rasch
Chapter 2
Primary Models
Robin C. McKellar and Xuewen Lu
Chapter 3
Secondary Models
Thomas Ross and Paw Dalgaard
Chapter 4
Model Fitting and Uncertainty
David A. Ratkowsky
Chapter 5
Challenge of Food and the Environment
Tim Brocklehurst
Chapter 6
Software Programs to Increase the Utility of Predictive Microbiology Information
Mark Tamplin, József Baranyi, and Greg Paoli
Chapter 7
Modeling Microbial Dynamics under Time-Varying Conditions
Kristel Bernaerts, Els Dens, Karen Vereecken, Annemie Geeraerd, Frank Devlieghere, Johan Debevere, and Jan F. Van Impe
Chapter 8
Predictive Microbiology in Quantitative Risk Assessment
Anna M. Lammerding and Robin C. McKellar
Chapter 9
Modeling the History Effect on Microbial Growth and Survival: Deterministic and Stochastic Approaches
József Baranyi and Carmen Pin
Chapter 10
Models — What Comes after the Next Generation?
Donald W. Schaffner
Chapter 11
Predictive Mycology
Philippe Dantigny
Chapter 12
An Essay on the Unrealized Potential of Predictive Microbiology
Tom McMeekin

La Vida en un Día La Historia de un Día en la Tierra

Clic en la imagen

El 24 de Julio de 2010, miles de personas en todo el mundo subieron videos de su vida a Youtube para formar parte de La vida en un día, un experimento cinematográfico histórico cuyo objetivo es crear un documental sobre un día en la tierra.

Desde esa fecha, el director ganador de un Oscar, Kevin McDonald conjuntamente con su equipo de editores, han seleccionado mas de 80.000 piezas (y más de 4.500 horas de video) para crear un película de 90 minutos que contenga instantes inspiradores de nuestro mundo.

Hoy a las 7 de la tarde (hora española), se puede ver una repetición de la premiere mundial de la película en el Festival de Sundance 2011, estrenada el día de ayer.

Para acceder a la misma, haz clic en el enlace de la fuente.

Fuente: La vida en un dia

Microbiología Predictiva Respuesta Microbiana

Clic en la imagen
La microbiología predictiva es un área de la microbiología de los alimentos que permite predecir las respuestas microbianas (crecimiento, muerte, inactivación) frente a diferentes factores y condiciones de los alimentos. La obtención de predicciones es posible gracias al desarrollo de modelos matemáticos que relacionan respuestas microbianas y factores/condiciones ambientales.

Ella comprende el desarrollo de modelos matemáticos para la predicción del crecimiento, supervivencia e inactivación de microorganismos en los alimentos. Además, se emplean con frecuencia programas informáticos de predicción basados en diversos modelos, ofreciendo distintos tipos de predicción para microorganismos patógenos y alterantes, en escenarios diferentes.

Una de las aplicaciones clásicas de la microbiología predictiva es el establecimiento de la vida comercial de productos alimenticios. Teniendo en cuenta que es posible modelar el crecimiento (o supervivencia) de patógenos potenciales y flora alterante durante el almacenamiento de los productos, se puede obtener una estimación de la concentración microbiana en un momento determinado. La concentración de la flora alterante es directamente proporcional al deterioro del producto, mientras que en el caso de los patógenos, su nivel de riesgo puede alcanzarse anteriormente al deterioro de los productos, y viene determinado por las autoridades sanitarias y reflejado en distintos Reglamentos y Directivas.

Fuente video: Manfenix08

La Elasticidad de la Demanda Economía

Hay algunos bienes cuya demanda es muy sensible al precio, pequeñas variaciones en su precio provocan grandes variaciones en la cantidad demandada. Se dice de ellos que tienen demanda elástica.

Los bienes que, por el contrario, son poco sensibles al precio son los de demanda inelástica o rígida. En éstos pueden producirse grandes variaciones en los precios sin que los consumidores varíen las cantidades que demandan. El caso intermedio se llama de elasticidad unitaria.

La elasticidad de la demanda se mide calculando el porcentaje en que varía la cantidad demandada de un bien cuando su precio varía en un uno por ciento. Si el resultado de la operación es mayor que uno, la demanda de ese bien es elástica; si el resultado está entre cero y uno, su demanda es inelástica.

Los factores que influyen en que la demanda de un bien sea más o menos elástica son:
  1. Tipo de necesidades que satisface el bien. Si el bien es de primera necesidad la demanda es inelástica, se adquiere sea cual sea el precio; en cambio si el bien es de lujo la demanda será elástica ya que si el precio aumenta un poco muchos consumidores podrán prescindir de él.
  2. Existencia de bienes sustitutivos. Si existen buenos sustitutos la demanda del bien será muy elástica. Por ejemplo, un pequeño aumento en el precio del aceite de oliva puede provocar que un gran número de amas de casa se decida por usar el de girasol.
  3. Importancia del bien en términos de coste. Si el gasto en ese bien supone un porcentaje muy pequeño de la renta de los individuos, su demanda será inelástica. Por ejemplo, el lápiz. Las variaciones en su precio influyen muy poco en las decisiones de los consumidores que desean adquirirlos.
  4. El paso del tiempo. Para casi todos los bienes, cuanto mayor sea el período de tiempo considerado mayor será la elasticidad de la demanda. Puede ser que al aumentar el precio de la gasolina, su consumo no varíe mucho, pero al pasar el tiempo podrá ser substituida en algunos de sus usos por el carbón, en otros usos por el alcohol, de forma que la disminución en la demanda sólo se nota cuando pasa el tiempo.
  5. El precio. finalmente hay que tener en cuenta que la elasticidad de la demanda no es la misma a lo largo de toda la curva. Es posible que para precios altos la demanda sea menos elástica que cuando los precios son más bajos o al revés, dependiendo del producto de que se trate.
Hay diferentes clases de elasticidadades. El fenómeno que hemos estado analizando bajo el nombre de "elasticidad" a secas, podríamos haberlo llamado con mayor propiedad elasticidad-precio ya que se trataba de medir la sensibilidad de la demanda a las variaciones en los precios. Pero la demanda puede ser también más o menos sensible a otros factores. Llamaremos elasticidad-renta a la medida de la sensibilidad de la demanda de un bien a las variaciones en la renta del consumidor. Llamaremos elasticidad cruzada a la medida de la sensibilidad de la demanda de un bien a las variaciones en el precio de otros bienes.

Según vimos antes, cuando la renta de un individuo aumenta, su consumo de todos los bienes aumentará también. Sin embargo eso no es siempre cierto. Hay algunos bienes, los llamados bienes inferiores, que se caracterizan por el hecho de que al aumentar la renta de los individuos disminuye el consumo de ellos. El ejemplo clásico es el de las patatas o, en general, el de los alimentos ricos en féculas. Conforme aumenta la renta de los individuos y de las sociedades, estos alimentos son substituidos por otros más ricos en proteínas, la carne, por ejemplo. Hay otros bienes, por el contrario, cuyo consumo aumenta más que proporcionalmente al aumentar las rentas. Son los bienes de lujo.

Para medir la sensibilidad de los bienes a las variaciones en la renta de los individuos se utiliza el concepto de elasticidad-renta: porcentaje en que varía la cantidad demandada de un bien cuando la renta del consumidor varía en un uno por ciento. En el caso de los bienes inferiores, la elasticidad-renta es negativa ya que el aumento de ésta provoca la contracción de la demanda de aquellos. La elasticidad-renta de los bienes de lujo es muy alta ya que las variaciones en la renta provocan grandes variaciones en la cantidad demandada. Los bienes de primera necesidad, a diferencia de los bienes inferiores, tienen la elasticidad-renta de la demanda positiva pero muy pequeña, en otras palabras, su demanda es inelástica con respecto a la renta.

Finalmente, los bienes normales mostrarán una elasticidad-renta unitaria, es decir, su demanda aumentará aproximadamente en la misma proporción en que lo haga la renta de los individuos.

Las relaciones que existan entre bienes permiten otra forma de clasificación. Se llaman bienes complementarios a los que son consumidos conjuntamente: los coches y la gasolina, los canarios y las jaulas. La peculiaridad de estos bienes es que cuando aumenta el precio de uno disminuye la cantidad demandada del otro. El fenómeno opuesto puede observarse en el caso de los bienes sustitutivos o sustituibles, los que pueden utilizarse de forma alternativa: el aceite de oliva y el de girasol. En este caso el aumento del precio de uno provoca el aumento de la cantidad demandada del otro.

Para medir la sensibilidad de la demanda de un bien a las variaciones en el precio de otro se utiliza la elasticidad cruzada: porcentaje en que varía la cantidad demandada de un bien cuando el precio de otro varía en un uno por ciento. La elasticidad cruzada será positiva si las variaciones en el precio y en la cantidad demandada van en el mismo sentido, es decir, en el caso de los bienes sustitutivos. Como el sentido del cambio es diferente entre el precio y la demanda de los bienes complementarios, su elasticidad cruzada será negativa.


Artículo original: Elasticidad de la Demanda

Fuente Video: Panavirtual1

Desaireador Spray o Spray Type Desaireación Térmica vs. Química - Parte II
por Arnulfo O. Behn - Consultor Procesos Térmicos

La filosofía general de operación de los desaireadores tipo spray es la misma de los desaireadores de bandejas, pero difiere levemente en la operación.

Boquillas cargadas con resorte ubicadas en la parte superior de la torre, atomizan el agua dentro de una atmósfera cargada de vapor, para permitir su calentamiento hasta el punto de saturación, donde la solubilidad del O2 y CO2 es mínima. Ver figura.

Estos gases son eliminados del desaireador a través de un venteo ubicado en la parte superior del equipo.

Este tipo de desaireador permite reducir el contenido de O2 en el agua de alimentación de una caldera a 20 – 50 ppb.


Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |

Ref: Arnulfo Oelker Behn - THERMAL ENGINEERING LTDA. Providencia 2133, Of. 207, Santiago, Chile Fono: 56 – 2 – 3347402

Up and Running with Autocad 2010 by Elliot Gindis

Up and Running with Autocad 2010

Table of Contents
Introduction to Level 1
Chapter 1 - AutoCAD Fundamentals Part 1
Chapter 2 - AutoCAD Fundamentals Part II
Chapter 3 – Layers, Colors, Linetypes and Properties
Chapter 4 – Text, Mtext, Editing and Style
Chapter 5 – Hatch Patterns
Chapter 6 – Dimensions
Chapter 7 – Blocks, Wblocks, Dynamic Blocks and Purge
Chapter 8 – Polar and Rectangular Arrays
Chapter 9 – Isometric Drawing
Chapter 10 – Basic Printing and Output
Spotlight On: Architecture
Introduction to Level 2
Chapter 11 – Advanced Linework
Chapter 12 – Advanced Layers
Chapter 13 – Advanced Dimensions
Chapter 14 – Options, Shortcuts, CUI, Design Center and Express Tools
Chapter 15 – Miscellaneous Topics
Chapter 16 – Importing and Exporting Data
Chapter 17 – External References (XREFs)
Chapter 18 – Paper Space
Chapter 19 – Attributes
Chapter 20 – Advanced Output and Pen Settings
Spotlight On: Engineering
Appendixes
Index

Bebidas Destiladas o Espirituosas Tecnología y Química de Alimentos

Historia

La destilación es una de las más tempranas manifestaciones de la tecnología química.

El proceso ya se conocía en China muchos siglos antes del nacimiento de Cristo, y se cree que la primera bebida destilada se elaboró a partir del vino de arroz alrededor de 800 a.C. El secreto de la destilación permaneció en China hasta los primeros años d.C., cuando el proceso se estudió en Egipto. Los químicos árabes aprendieron el arte y fueron quienes diseñaron el primer destilador verdaderamente eficaz, el alembic. Un descendiente directo de él todavía se utiliza para la destilación de diversas bebidas espirituosas, incluido el whisky escocés.

Los árabes introdujeron la destilación en Europa occidental a partir del norte de África. El nuevo arte interesó mucho a los alquimistas y monjes, quienes lo aplicaron a la elaboración de destilados.

Los alquimistas europeos creyeron que el destilado era un nuevo elemento (agua de la vida) por lo que consideraron que los destilados poseían propiedades medicinales. El consumo de bebidas espirituosas se extendió durante las epidemias que azotaron Europa.

La propagación geográfica de los destilados prosiguió según los pueblos europeos iban estableciendo sus colonias en las Américas. El ron ya se elaboraba en Barbados en 1630 y la producción de destilados comenzó en Norteamérica a finales del siglo XVII.

Entretanto continuaban las mejoras técnicas en el diseño de los alambiques y los grandes avances del siglo XV mejoraron en gran medida la eficacia de la destilación de las espesas mezclas que se empleaban en Gran Bretaña y en Alemania. El desarrollo del «evidente» destilador continuo por parte de AENEAs COFFEY en Dublín en 1830 puede considerarse como la última gran innovación tecnológica en el campo de la destilación, aunque el diseño de los destiladores continuos todavía sigue en perfeccionamiento.

Principios de la Destilación
La destilación consiste en la separación de los componentes de una solución en función de su volatilidad en el punto de ebullición (punto de destilación). El material a destilar es una mezcla de agua, etanol y de otros compuestos de diversas volatilidades. A la presión total de una atmósfera, el punto de ebullición es la temperatura en la que la suma de las presiones parciales ejercidas por cada uno de los componentes es igual a uno. Así, para un sistema modelo etanol/agua:
petOH + pH2O = 1
donde petOH es la presión parcial de etanol y pH2O es la presión parcial de agua. (En la realidad también influyen el resto de compuestos presentes en la disolución).

En el sistema etanol/agua
petOH = γ1·Χ1·PetOH
pH2O = γ2·Χ2·PH2O = γ2·(1 - Χ1)·PH2O
donde γ1 es el coeficiente de actividad del componente más volátil (etanol), γ2 es el coeficiente de actividad del componente menos volátil (agua), Χ1 es la fracción molar del componente menos volátil en la fase líquida, PetOH es la presión de vapor del etanol y PH2O es la presión de vapor del agua. El número de moléculas de cada compuesto está relacionado con la presión parcial que ejerce por:
p1 / PT = N1 / NT = Y1
donde NT es el número total de moles de vapor, PT es la presión total, N1 son los moles del componente 1 en el vapor y p1 es la presión parcial del compuesto 1.

En el punto de ebullición existe un vapor de una composición determinada en equilibrio con el líquido. Según procede la destilación el vapor se enriquece en el compuesto más volátil y el líquido se empobrece. Es posible enriquecer el vapor con el compuesto más volátil de una forma continuada condensando el vapor y vaporizando el líquido repetidamente. En la práctica, esto se consigue mediante el uso de una columna fraccionadora (rectificador).

Una columna de rectificación de uso corriente consiste en una torre con una serie de platos, que puede estar integrada en el destilador o colocada por separado corriente abajo del destilador. Los platos se construyen de tal forma que permiten el ascenso del vapor y el descenso del líquido. Según desciende el líquido de la parte superior contacta con el vapor y los componentes menos volátiles del vapor tienden a condensar. Al mismo tiempo los compuestos más volátiles de la fase líquida tienden a vaporizarse. Esto hace que con el empleo de una columna rectificadora sea posible obtener un destilado más rico en los compuestos más volátiles que el que se obtendría mediante una simple destilación y un solo equilibrio. La operación se puede expresar matemáticamente como sigue:
F = D + W
F·ΧF = D·ΧD + W·ΧW
donde F es la alimentación de la columna, D es el destilado y W es el deshecho que contiene una alta proporción de compuestos menos volátiles. Las columnas rectificadoras se pueden empaquetar con partículas de diversa morfología en lugar de contener platos, pero el principio de funcionamiento es idéntico.

Ref: Juanito, Universidad Politécnica de Valencia.

El Sistema Nervioso Cuerpo Humano al Límite
DC

Sistema Nervioso

El sistema nervioso. Pocos milímetros debajo de la superficie de la piel están las antenas que nos permiten sentir el mundo que nos rodea. Esta capa vital es la puerta hacia una original autopista de información, el sistema nervioso.

Discovery Channel muestra con gráficas originales y animación, cómo nuestro cuerpo y cerebro sufren de transcendentales cambios al ser forzados a un estado de crisis. De esta forma, Cuerpo Humano al Límite se convierte en un innovador enfoque que permite re-descubrir los huesos, músculos y órganos, capaces de mover la sorprendente y avanzada máquina que todos llevamos por dentro producto de millones de años de evolución.

Ver también: La Vista | La Fuerza

Partición de una Torre de Destilacion Propano-Propileno Simulación en Hysys - VideoTutorial


Partición de una Torre de Destilación de 200 platos en dos de 100 platos en una separación de Propano- Propileno por destilación de alta presión [Figura 17.5 Henley & Seader 2000].

Diagramas usados: Descargar

Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 |

Preparación y Evaluación de Proyectos Nassir Sapag Chain - Reinaldo Sapag Chain

Preparación y Evaluación de Proyectos

Tabla de Contenidos
1. Introducción
2. El Mercado
3. El Estudio Técnico
4. La Organización
5. El Estudio Financiero
6. La Evaluación
7. Estudios Complementarios
Tablas

Multi Effect Batch Distillation Pilot Plant at the University of Stellenbosch

Click on image

Multi Effect Batch Distillation (MEBAD) pilot plant constructed at the University of Stellenbosch to demonstrate the real world application of a neurocontrol methodology. This study formed part of a Ph.D. thesis "A neurocontrol paradigm for intelligent process control using evolutionary reinforcement learning, Alex van Eck Conradie, University of Stellenbosch (2004)"

Fuente: Alexconradie

Evolución de los Principales Plásticos y de los Procesos de Transformación de los Polímeros

En la tabla, se observa que desde el descubrimiento hasta la aplicación comercial de ciertos polímeros, pasaron muchos años. El proceso básico de la Celulosa Regenerada se patentó en 1892, la película comercial apareció 20 años después y una aplicación muy popular, envoltorio de cigarrillos, 40 años más tarde.

En el caso del PVC pasaron entre 25 y 30 años desde las primeras patentes describiendo el proceso de polimerización hasta la obtención de las primeras películas por calandrado.

El desarrollo del PE fue más acelerado: a los 10 años de su descubrimiento se obtuvieron las primeras películas por calandrado y a los 15 años película por soplado que es el proceso usado en la actualidad para transformar la mayor parte del PE.

El Polietileno de Alta Densidad (PEAD) y el Polipropileno (PP) han tenido un desarrollo muy rápido.

Caben señalar los desarrollos destinados a acelerar la degradación de los polímeros que datan de los años 1972/74.

En siguiente tabla se muestra el desarrollo histórico de los procesos de transformación de los polímeros. Como se puede observar muchas de las máquinas usadas para la transformación de plásticos fueron derivadas de similares usadas para procesar caucho y en el caso de la impresión de equipos usados para papel.


Fuente: Instituto Argentino del Envase

Los Secretos de la Grasa Térmica Universia Tech Center Argentina

Es bien sabido que la grasa térmica apunta a llenar los espacios vacíos que quedan entre el procesador y el cooler, creados por las imperfecciones de las superficies de ambos componentes. Dado que el aire es un pésimo conductor de calor, si esos espacios quedan vacíos, el calor pasa con más dificultad desde el chip al cooler, resultando en habituales sobrecalentamientos.

La aplicación de grasa térmica entre el procesador y el cooler ayuda a rellenar los diminutos espacios que quedan entre estos componentes, facilitando la transmisión de calor y su posterior disipación.

La grasa térmica puede encontrarse en comercios de productos electrónicos, y su uso es indispensable. Por otra parte, se trata de un elemento de muy bajo costo. Se compone básicamente de silicona y óxido de zinc, aunque hay variantes más elaboradas que pueden agregar cerámica y plata; materiales nobles que prometen mayor eficiencia en la transmisión de calor. Habitualmente, los coolers incluyen una cierta cantidad de grasa térmica.

También pueden encontrarse coolers que traen algún material aplicado de fábrica. Es el caso de los coolers que se ofrecen junto con el procesador (particularmente en los modelos “boxed”, o en caja). En estos casos, o en los casos de coolers de marcas reconocidas, generalmente la calidad del material aplicado es buena, y tanto AMD como Intel recomiendan el uso de estos componentes.

El uso de los compuestos que vienen de fábrica tiene algunos inconvenientes. El primero es que sólo pueden usarse una vez: si se extrae el cooler por alguna razón, deberá limpiarse el viejo compuesto y aplicar una nueva grasa térmica. Otro inconveniente es que el compuesto termina adhiriendo el disipador al procesador, dificultando la remoción del cooler. Para evitar que al tirar del cooler salga también el procesador por estar ambos adheridos, lo que puede hacerse es calentar el conjunto con un secador de pelo para derretir el compuesto térmico (tomando la precaución de que esto no perjudique a otros componentes), y luego separar el disipador con movimientos laterales.

Algunos coolers baratos traen una plancha de grafito o una cinta adhesiva térmica parecida al chicle, que son pobres conductores de calor. En estos casos conviene quitar tales componentes y aplicar grasa térmica en su lugar.

Muchos creen que, cuanto más grasa térmica, mejor. Pero el exceso de grasa termina actuando como aislante, sin mencionar que puede caer sobre los contactos de la mother. La mayoría de las grasas no conducen electricidad, pero hay algunas que incluyen metal en su composición, con lo cual pueden ser conductores eléctricos y causar un cortocircuito al caer sobre la placa.

Aplicación de la grasa térmica sobre diferentes clases de procesadores
La eficacia de la grasa térmica como agente transmisor de temperatura entre componentes electrónicos depende de un correcto uso de la misma. En esta nota comentamos algunos tips a tener en cuenta para ensamblar equipos que hagan un uso eficiente de la solución de enfriamiento aplicada sobre el microprocesador.

En caso de que el procesador o el cooler tengan restos de una antigua grasa térmica adherida, es necesario eliminarla antes de aplicar una nueva capa. Para ello se utiliza un hisopo embebido en alcohol isopropílico, el cual es más puro que otros alcoholes (no contiene agua) y puede encontrarse en tiendas de componentes electrónicos o farmacias.

También conviene eliminar los restos del compuesto térmico que puedan quedar en el disipador. Puede usarse una navaja para quitar los restos, cuidando de no rayar la base del cooler. Para finalizar, limpie la superficie con un trapo embebido en alcohol isopropílico, quitando todo rastro del antiguo compuesto térmico.

Una vez que las superficies están perfectamente limpias, podrá proceder a aplicar la nueva capa de grasa térmica.

Al aplicar la grasa térmica, no hace falta preocuparse por cubrir la totalidad de la superficie del procesador, ya que la misma presión entre el disipador y el chip se encargará de distribuirla uniformemente sobre la zona a enfriar.

Los errores más comunes
El error más comúnmente cometido en relación al uso de grasa térmica es la aplicación de cantidades demasiado grandes de grasa. El exceso termina arruinando la correcta disipación de calor, a lo que se suma la posibilidad de afectar el sistema en su totalidad si la grasa cae sobre la mother.

Los procesadores que tienen componentes expuestos, tales como los antiguos Athlon XP, pueden sufrir cortocircuitos si la grasa térmica cierra el contacto de sus puentes o de los componentes expuestos, tales como capacitores y resistores.

Otro error común es la colocación de sellos, fajas o calcos de garantía sobre los puntos de contacto entre el disipador y el procesador. Estos elementos dificultan la transmisión de calor, por lo cual deben ser removidos. Otro problema que acarrean es que ocasionan que la presión del disipador sobre el procesador sea despareja, pudiendo ocasionar que se rompa este último.

Finalmente, un problema más habitual de lo que uno creería es el reemplazo de la grasa térmica por sustitutos de uso casero, tales como silicona líquida, adhesivos, aceite o incluso pasta dental. Dado que se trata de un producto de bajo costo, resulta difícil pensar en una razón que justifique el reemplazo de la grasa térmica, creada especialmente para componentes electrónicos, por algún compuesto de dudosa eficacia en la transmisión de calor.

Fuente: Universia Tech Center Argentina

Safety and Health for Engineers by Roger L. Brauer, Ph.D., CSP, PE

Safety and Health for Engineers

Table of Contents
Part I - Introduction
Part II - Laws, Regulations and Standards
Part III - Hazards and Their Control
Part IV - The Human Element
Part V - Managing Safety and Health

Dirección Empresarial y Calidad Total Tercera Parte - Curso Audiovisual

Dirección Empresarial y Calidad Total - Tercera Parte - Avibert

Ver también: 1ª Parte | 2ª Parte |

Ranking de Productores y Consumidores de Azúcar Informe Sectorial Nº 4 - Noviembre 2010


Consumo Mundial de Azúcar

A partir del Informe de Perspectiva Trimestral de Mercado de la ISO, se previó que el consumo global de azúcar aumentará un 2,03%, frente al promedio de 10 años del 2,59%, (representando 3,705 millones de toneladas más que la temporada anterior).

Este crecimiento inferior al promedio a largo plazo puede atribuirse a unos precios record tanto en los mercados internacionales como en los nacionales, donde su efecto es mayor.

Las perspectivas hasta el 2020 concluye que aunque se espera que el crecimiento del consumo mundial mantenga solidez durante los próximos 10 años, el índice de crecimiento descendería desde el 2,7 % observado entre 2000 y 2009 hasta una cota cercana al 2%.


Demanda Mundial de Azúcar
A partir del Informe de Perspectiva Trimestral de Mercado de la ISO , se prevé que la demanda total de importación mundial descienda en 2,738 millones de toneladas con respecto al nivel del ciclo anterior.

Fuente: Alimentos Argentinos | Minagri

Desaireación Térmica vs. Química Parte I
por Arnulfo O. Behn - Consultor Procesos Térmicos

La necesidad de eliminar el oxígeno y dióxido de carbono del agua de alimentación utilizada en calderas, tiene por objetivo prevenir daños por corrosión en el lado agua de estos equipos.

La presencia de oxigeno disuelto en el agua causa daños por corrosión localizada, también conocidos como pitting.

En el caso de dióxido de carbono, su disolución en agua provocará bajos niveles de pH y la producción del corrosivo ácido carbónico.

Alternativas para Desairear el Agua
Las alternativas existentes para eliminar el O2 y CO2 del agua son básicamente las siguientes tres: desaireación por vacío, térmica y química, siendo las últimas dos las utilizadas con mayor frecuencia.

Desaireación por Vacío
Este tipo de desaireación no es utilizado con mucha frecuencia, siendo los más frecuentes la desaireación térmica, la química o una combinación de éstas.

En este caso se logra la desaireación al llevar al agua a su punto de saturación mediante la aplicación de vacío.

El agua es alimentada a estos equipos mediante boquillas, que la atomizan en finas gotas previo al ingreso a torres empaquetadas, para aumentar la superficie del líquido desde la que se puedan desprender los gases disueltos.

Los gases desprendidos del agua y vapor de agua son eliminados por el vacío mantenido por eyectores con vapor o bombas de vacío, según sea el tamaño del sistema.

La desaireación por vacío es menos eficiente que la presurizada o térmica, llegando a alcanzar niveles de O2 de 0.25 a 0.50 cm3/l o 330 a 650 ppb.

Desaireación Térmica
La desaireación se basa en los siguientes dos principios científicos:
  1. El primer principio puede ser descrito por la Ley de Henry, que afirma que la solubilidad de un gas en una solución disminuye, cuando la presión parcial sobre la solución disminuye
  2. El segundo principio científico, que gobierna la desaireación, es la relación existente entre solubilidad y temperatura. Dicho de manera sencilla, la solubilidad de un gas en una solución disminuye a medida que la temperatura de la solución aumenta y alcanza la temperatura de saturación
Un desaireador térmico utiliza ambos principios, para eliminar O2, CO2 y otros gases no condensables del agua de alimentación de calderas.

El agua de alimentación es calentada hasta el punto de saturación, a través de la inyección de vapor y el aumento de la superficie del líquido, para facilitar la liberación de los gases disueltos y su posterior eliminación a través de un venteo.
La aplicación de estos principios permite reducir los niveles de O2 disuelto por debajo de 0.05 cm3/l o 5 ppb.

Existen básicamente dos tipos de desaireadores térmicos, que emplean estos principios: los de bandejas (tray type) y los spray (spray type).

Desaireador de Bandejas o Tray Type
Este tipo de deasireadores eliminan los gases disueltos en el agua, cuando ésta cae por distintos niveles de bandejas para aumentar su superficie, mientras es calentada hasta el punto de saturación por vapor alimentado en contraflujo (ver figura inicial).

El agua desaireada cae luego al estanque de almacenamiento, donde el flujo de vapor ascendente previene su re-contaminación.

Este tipo de desaireador permite reducir el contenido de O2 en el agua de alimentación de una caldera a 7 ppb.
continúa...


Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 |

Ref: Arnulfo Oelker Behn - THERMAL ENGINEERING LTDA. Providencia 2133, Of. 207, Santiago, Chile Fono: 56 – 2 – 3347402

Piping and Pipeline Calculations Manual Construction, Design, Fabrication and Examination
by J. Phillip Ellenberger

Piping and Pipeline Calculations Manual

Table of Contents
Part I
1. Major Codes and Standards
2. Metric versus U.S. Customary Measurement
3. Selection and Use of Pipeline Materials
Part II
4. Piping and Pipeline Sizing, Friction Losses and Flow Calculations
5. Piping and Pipeline Pressure Thickness Integrity Calculations
6. Straight Pipe, Curved Pipe, and Intersection Calculations
7. Piping Flexibility, Reactions, and Sustained Thermal Calculations
8. Pipe-Supporting Elements and Methods Calculations
9. Specialty Components
10. High-Frequency versus Low-Frequency Vibration Calculations
11. Occasional Loads Calculations
12. Slug Flow and Fluid Transients Calculations
13. Fabrication and Examination Elements Calculations
14. Valves and Flow Control Calculations
Appendix: Charts, Graphs, and Other Helpful Guides
Bibliography
Index

Proyecto NANO Tucumán - Argentina

Proyecto NANO -  Tucumán - Argentina - Avibert

Entrevista televisiva a integrantes del proyecto NANO:

Dr. David Comedi (CONICET, LAFISO-UNT)
Dra. Monica Tirado (LPDM-UNT)
Jorge Pablo Caram (LAFISO-UNT)
Claudia Beatriz Sandoval (LPDM-UNT)

Transmitida por Canal 10 de Tucumán Argentina el 23 de Abril de 2010.

Fuente: Paulodic