Tabla de Contenidos
1 Introducción
2 Equipos Presentes
3 Modalidad de Trabajo
4 Información Práctica
4.1 Ingreso de Componente a la Base de Datos
4.2 Modificando Propiedades Termodinámicas de los Componentes
4.3 Propiedades Necesarias en cada Operación Unitaria
4.4 Uso de Ayuda en Línea
4.5 Ejemplo N°1: Simulación de una operación de neutralización
La determinación de ceniza se hace para realizar el análisis de sustancias minerales. Bajo el nombre de cenizas se engloba el conjunto de sustancias que quedan como residuo tras su incineración. Básicamente está formado por sustancias inorgánicas.
Este parámetro os puede indicar una posible adulteración del alimento, por ejemplo un alimento en polvo donde se añade cáscara de algún fruto seco.
Determinación de Cenizas
Se entiende por cenizas como el residuo inorgánico que queda tras eliminar totalmente los compuestos orgánicos existentes en la muestra, si bien hay que tener en cuenta que en él no se encuentran los mismos elementos que en la muestra intacta, ya que hay pérdidas por volatilización y por conversión e interacción entre los constituyentes químicos.
A pesar de estas limitaciones, el sistema es útil para concretar la calidad de algunos alimentos cuyo contenido en cenizas totales, o sus determinaciones derivadas, que son cenizas solubles en agua y cenizas insolubles en ácido, está bien definido. Facilita en parte, su identificación o permite clasificar el alimento examinado en función de su contenido en cenizas.
La determinación consiste en incinerar la muestra en horno mufla, hasta ceniza blanca en una cápsula. Los resultados se suelen expresar porcentualmente tras aplicar la siguiente relación:
P es el peso en gramos de la cápsula más el de la muestra; P1 es el peso en gramos de la cápsula más las cenizas; P2 es el peso en gramos de la cápsula en vacío.
Los recipientes más empleados para la obtención de cenizas son cápsulas de porcelana
Tabla de Contenidos
1 Introducción
2 Graficar datos
3 Análisis de datos
4 Evaluación de la calidad
5 Diseño de un experimento
6 Uso de comandos de sesión
7 Generación de un informe
8 Preparación de una hoja de trabajo
9 Personalización de Minitab
10 Obtención de ayuda
11 Referencia
El universo elegante es un documental en el que se habla de un posible Multiuniverso formado de universos paralelos (como un racimo de uvas conectadas supongo que por los agujeros negros o de gusano) en los que habría (según dicen en el documental, lo afirman los físicos) 11 dimensiones y no 4 como conocemos. ¿Qué dimensiones son esas? ¿y cómo saben que pueden ser 11?
Es lo que afirma la incipiente teoría de cuerdas. En la física actual hay un gran problema, hay dos teorías la relatividad general que describe muy bien como se comportan los objetos grandes (macroscópicos) y como funciona la gravedad, y hay otra teoría, la física cuántica, que describe muy bien como se comportan las particulas microscópicas (quarks, átomos, fotones..) y también como se comporta el resto de fuerzas (electromagnética, nuclear fuerte, nuclear debil).
El universo elegante es un documental en el que se habla de un posible Multiuniverso formado de universos paralelos (como un racimo de uvas conectadas supongo que por los agujeros negros o de gusano) en los que habría (según dicen en el documental, lo afirman los físicos) 11 dimensiones y no 4 como conocemos. ¿Qué dimensiones son esas? ¿y cómo saben que pueden ser 11?
Es lo que afirma la incipiente teoría de cuerdas. En la física actual hay un gran problema, hay dos teorías la relatividad general que describe muy bien como se comportan los objetos grandes (macroscópicos) y cómo funciona la gravedad, y hay otra teoría, la física cuántica, que describe muy bien como se comportan las partículas microscopicas (quarks, átomos, fotones..) y también como se comporta el resto de fuerzas (electromagnética, nuclear fuerte, nuclear debil).
Pero cuando se intentan unir esas dos teorías no se puede, no hay forma de juntarlas, son por decirlo de alguna forma como el agua y el aceite.. cada una describe una parte del universo pero es incapaz de describir la otra.
Aquí es donde entra la teoría de cuerdas que pretende juntar esas dos teorías en una teoría mas básica que describa todo el universo. Después de muchos años de investigacion la teoría de cuerdas está avanzando mucho y se estan llegando a conclusiones como que nuestro universo tendría 11 dimensiones en vez de 4 (3 espaciales mas 1 temporal).
¿Porqué no percibimos esas dimensiones "adicionales"? Actualmente se piensa que puede ser por dos causas:
Una es que estan enrrolladas sobre sí mismas y que son tan increíblemente pequeñas que no somos incapaces de percibirlas, solo las partículas subatómicas como los quarks podrían moverse en ellas. Imagínate una pajita (un cilindro) muy fina, si tú la ves desde lejos como es tan fina dirías que solo tiene dos dimensiones (que es plana), pero si fueras un microbio y vivieras dentro de la pajita dirias que tiene 3.
La otra posibilidad es que estemos retenidos dentro de una membrana 3 dimensional la cual está a su vez dentro de un universo multidimensional. Imagínate la tierra, su superficie, imaginate que es una esfera perfecta y que tiene solo 2 dimensiones y que tu estas atrapado en esas dos dimensiones.. puedes andar para adelante y para los lados pero no para arriba o abajo, tampoco puedes ver o sentir nada mas allá de esas dos dimensiones, estarías atrapado en una membrana 2 dimensional la cual estaría dentro de un universo tridimensional. A tí te pareceria que tu membrana 2 dimensional es infinita.. puedes andar siempre y nunca se acaba, pero esta bien delimitada dentro del universo de dimensiones superiores tal y como ocurre con la tierra.
Dentro de este universo multidimensional habría mas membranas aparte de la nuestra las cuales podrian contener universos como el nuestro o muy diferentes. Se piensa también que el bigbang podria haber ocurrido por el choque entre dos membranas antiguas lo cual desencadenó el cataclismo y la formacion de nuestro universo membrana.
Todo esto es teoría, no se ha podido demostrar nada y se ve dificil que se pueda demostrar porque es muy dificil por no decir imposible demostrar estas ideas.. ¿qué clase de experimento podria demostrar eso?.
Todas estas ideas surgen de las ecuaciones y matematicamente esta es una teoria muy consistente que es capaz de unir la relatividad y la física cuántica, pero para lograrlo necesita un modelo de universo que a primera vista nos parece un poco extraño.
Tabla de Contenidos
1 Introducción y revisión
2 Estructura y propiedades de las moléculas orgánicas
3 Estructura y estereoquímica de los alcanos
4 El estudio de las reacciones químicas
5 Estereoquímica
6 Haluros de alquilo: sustitución nucleofílica y eliminación
7 Estructura y síntesis de alquenos
8 Reacciones de los alquenos
9 Alquinos
10 Estructura y síntesis de alcoholes
11 Reacciones de los alcoholes
12 Espectroscopía de infrarrojo y espectrometría de masas
13 Espectroscopía de resonancia magnética nuclear
14 Éteres, epóxidos y sulfuros
15 Sistemas conjugados, simetría orbital y espectroscopía ultravioleta
16 Compuestos aromáticos
17 Reacciones de compuestos aromáticos
18 Cetonas y aldehidos
19 Aminas
20 Ácidos carbóxilicos
21 Derivados de los ácidos carboxílicos
22 Sustituciones en alfa y condensaciones de enoles y de iones enolato
23 Carbohidratos y ácidos nucléicos
24 Aminoácidos, péptidos y proteínas
25 Lípidos
26 Polímeros sintéticos
En este I+D+I profundizamos sobre la biotecnología y el uso que de ésta se puede hacer en los países en vías de desarrollo para solucionar algunos de sus problemas más acuciantes: sobre todo los relacionados con las carencias alimentarias. Nos centraremos en dos ejemplos. Por un lado conoceremos las investigaciones del departamento de Fisiología Vegetal de la universidad de Granada en el que usan técnicas de extracción de ADN para lograr variedades más resistentes a la sequía y adaptadas a distintos climas. Y por otra veremos como la modificación genética del arroz, puede llegar a prevenir la aparición de cegueras en algunos países del sudeste asiático: es el llamado golden rice.
Table of Contents
1. Chilled and Frozen Raw Meat, Poultry and Their Products
2. Cooked Meats, Poultry and Their Products
3. Dried Meats, Poultry and Related Products
4. Cured Meats and Poultry, Including Cooked Cured Meats
5. Fermented Meats
6. Eggs
7. Haccp in Meat and Meat Product Manufacture
8. EC Food Hygiene Legislation
9. Pathogen Profiles
Tabla Breve de Contenidos
Capítulo 1 Introducción
Capítulo 2 Caracterización de aguas residuales domésticas e industriales
Capítulo 3 Pretratamientos y tratamientos primarios
Capítulo 4 Teoría y práctica de la aireacion en tratamientos de aguas residuales
Capítulo 5 Tratamiento secundario: el proceso de lodos activos
Capítulo 6 Tratamiento secundario: otros procesos aerobios y anaerobios
Capítulo 7 Tratamiento y evacuación de lodos
Capítulo 8 Tratamiento terciario de las aguas residuales
A través de mi amigo, José Antonio David, licenciado en Ecología, conocí el otro día a Pablo Puyal, un ingeniero industrial argentino recibido en el ITBA que está desarrollando en el país una tecnología destinada al tratamiento de efluentes, que ganó el premio al proyecto más sustentable y con mayor impacto social de Argentina otorgado el año pasado por la ONG holandesa BID Network . De esta forma, competirá a fines de mayo con el resto de los proyectos ganadores de los demás países integrantes de esta organización.
El sistema de Pantanos Secos Artificiales (PSA) es una tecnología que emula los procesos físicos, químicos y biológicos tal como se desarrollan en los ecosistemas naturales. Su simpleza y fácil construcción son asombrosas.
Puyal vivió entre el 2005 y 2008 en Pamplona, España, trabajando en una ingeniería española especializada en el tratamiento de efluentes. Durante su trabajo en ese país recibió un manual de la EPA (Environmental Protection Agency), la Agencia de Protección Ambiental de los Estados Unidos describiendo este sistema y se quedó fascinado con su potencial, especialmente para países en desarrollo. De forma anecdótica, su jefe en aquel entonces le dijo que no perdiera el tiempo con dicha tecnología.
A fines del 2007, decidió volver a la Argentina convencido de querer realizar aquí una diferencia positiva en el tema medioambiental y específicamente en el tratamiento de efluentes con tecnologías compatibles con nuestros limitados recursos. Habiendo ya renunciado a su trabajo, viajó a Estados Unidos invitado por una empresa norteamericana especialista en el manejo de efluentes para evaluar distintas tecnologías. Durante ese viaje, conoció al Dr. Ronald Lavigne CEO de New England Waste Systems quien lo llevó a visitar cinco pantanos secos cerca de Nueva York y acordaron trabajar juntos en Argentina. Puyal volvió en abril 2008 a nuestro país y desarrolló el primer PSA del país con una superficie de 800m² para una conocida empresa distribuidora de productos lácteos.
El próximo 29 de marzo, empieza la construcción del segundo sistema de PSA con una superficie de 8000m² en la Provincia de Buenos Aires para tratamiento de efluentes de una empresa del sector alimenticio con un caudal de 300 metros cúbicos diarios.
Esta tecnología de tratamiento de efluentes no perjudica el medioambiente y como prueba de ello, cabe destacar que ha sido utilizada en la isla de Santa Cruz, Galápagos, patrimonio natural de la humanidad. A su vez, puede utilizarse para proyectos a gran escala, como el de Puerto Azul en Guayaquil, Ecuador para tratar los efluentes de 150.000 habitantes.
Aplicaciones de los PSA
Los PSA permiten el tratamiento de una gran variedad de efluentes incluyendo:
♦ Cloacales (grandes o pequeñas ciudades, barrios cerrados,etc.)
♦ Minas de oro y cobre (ej, eliminación de cianuro en minas de oro)
♦ Rellenos sanitarios (lixiviados)
♦ Industria petrolera (agua de perforación)
Funcionamiento de un PSA
Un PSA es un proceso continuo que funciona gracias a distintas etapas de purificación emulando procesos naturales.
El agua contaminada, que a menudo termina sin tratamiento adecuado en nuestros ríos y otras superficies acuáticas, es desviada a la primer etapa llamada "separación de sólidos". Esta se realiza en un decantador de hormigón sin elementos mecánicos.
En este decantador se retiene el 65 por ciento de los sólidos. El 35 por ciento restante de sólidos no afecta sistema de PSA. El agua que sale del decantador se dirige a través de la fuerza de gravedad al primer lecho llamado 'lecho lijado' y de ahí al segundo llamado "lecho pulido".
En el lecho lijado se realiza la mayor parte de la depuración y en el lecho pulido se hace el ajuste final para que el efluente salga en condiciones. En el caso de líquido de rellenos sanitarios (lixiviados), se realizan múltiples etapas de cada tipo de lecho. A la salida del último lecho pulido, se obtiene agua que cumple con las normas de las Naciones Unidas para agua de natación. No es considerada potable para beber dado que todavía contiene algunas bacterias, pero se puede mejorar aún la calidad a través de esterilización de rayos ultravioletas.
Los lechos están formados por una capa de arena por debajo de la cual están las tuberías de infiltración de agua. En la superficie se colocan plantas que crecen por hidroponía. Los lechos están inundados pero unos 5cm por debajo de la superficie de la arena. No hay agua superficial, de donde surje su nombre de pantano seco. Los efluentes contienen las bacterias que van a realizar la depuración transformando la contaminación en CO2 y agua.
Para realizar este proceso necesitan de oxígeno que es aportado al sistema por las plantas. Estas últimas tienen la capacidad de absorber metales pesados, nitrógeno, y fósforo para su propio desarrollo. Este es solo un ejemplo de la variedad de procesos físico-químicos que ocurren dentro de este pequeño ecosistema. El sistema se dimensiona según el caudal, tipo y concentración de carga contaminante del efluente y es fácilmente ampliable (modular) a la hora de necesitar una expansión. Se puede bajar este PDF para ver detalles técnicos completos.
Ventajas de los PSA
♦ No requiere uso de electricidad
♦ Solo se utiliza gravedad y energía solar
♦ No emana ningún tipo de olores
♦ No es una fuente de proliferación de mosquitos dado que no hay agua superficial
♦ Es de facil construcción y no requiere mano de obra especialmente calificada
♦ Mínimo costo de mantenimiento
♦ No se generan bio-sólidos, todo se trata in-situ
En nuestro país, se nos ocurren rápidamente numerosas ideas mediante las cuales podríamos beneficiarnos de esta tecnología. La primera que me viene a la mente es la minería, que tanto daño está causando. Estar en contra de la minería es una postura fácil, sobre todo cuando utilizamos a diario todos los beneficios que esta nos brinda. Seguir extrayendo nuevos recursos del suelo y no reciclar lo que tenemos no es sustentable pero hacerlo sin contaminar sin duda es un paso en la dirección correcta.
¿Entienden las Matemáticas de sexos? ¿Son los grandes misterios de las Matemáticas algo exclusivo de los hombres? ¿Por qué, a lo largo de la historia, hay tan pocas mujeres que hayan destacado en una disciplina científica tan antigua.
Aunque parece que en la actualidad existe un equilibrio entre el número de chicos y de chicas que estudian matemáticas, esto es un fenómeno relativamente reciente. Desde luego hace cuarenta años esto no ocurría. Para descubrir la presencia de las mujeres en el Universo de las Matemáticas haremos un recorrido histórico que comienza con el nacimiento de las matemáticas, con Pitágoras y su mujer Teano, y que continúa con Hypatia en Alejandría, con Madame de Chatelet en Francia y con María Caetana Agnesi en Bolonia en el siglo XVIII.
Incluso en el siglo XIX, Sophie Germain tuvo que adoptar la identidad de un antiguo alumno de la Escuela Politécnica de París, Monsieur Leblanc, para conseguir los materiales y problemas y para presentar sus propios resultados y trabajos. Sus trabajos ssorprendieron a matemáticos de la altura de Lagrange y de Gauss.
Ya a finales del siglo Sophia Kovaleskaya sufrió la marginación de la mujer en el mundo académico a pesar de ser uno de los mejores cerebros de la época. Sólo a las puertas del siglo XIX, una mujer, Marie Curie va a realizar uno de los descubrimientos más importantes de la historia de la humanidad, un descubrimiento que va a cambiar la vida de ser humano en el siglo XX en muchos aspectos: la radioactividad. Y consiguió algo quizás más importante: por primera vez en nuestra historia los círculos científicos abrían sus puertas de par en par a una mujer. Y con ella a tantas tan injustamente ignoradas durante siglos.
Table of Contents
1. Introduction to environmental management
2. The global perspective
3. Brief history of environmental standards
4. Introduction to ISO 14001
5. Planning the project
6. Policy and planning
7. Implementation and operation
8. Checking, corrective action and management review
9. The Environmental Management Manual (Step 7)
10. The launch (Step 8)
11. Internal environmental auditing (Step 9)
12. Assessment (Step 10)
13. EMAS
14. Final thoughts
Appendix A Briefing notes for toolbox talks
Appendix B Aspects checklist
Appendix C Regulations checklist
Appendix D Useful information
Appendix E UKAS accredited environmental certification bodies
Appendix F Glossary Registers of Environmental Aspects and Environmental Legislation Operating Procedures Environmental Management Manual
Machu Picchu (del quechua sureño machu pikchu, «Montaña Vieja») es el nombre contemporáneo que se da a una llaqta —antiguo poblado andino— incaica construida a mediados del siglo XV en el promontorio rocoso que une las montañas Machu Picchu y Huayna Picchu en la vertiente oriental de la cordillera Central, al sur del Perú y a 2490 msnm, altitud de su plaza principal. Su nombre original habría sido Picchu o Picho.
Según documentos de mediados del siglo XVI, Machu Picchu habría sido una de las residencias de descanso de Pachacútec, noveno inca del Tahuantinsuyo entre 1438 y 1470. Sin embargo, algunas de sus mejores construcciones y el evidente carácter ceremonial de la principal vía de acceso a la llaqta demostrarían que esta fue usada como santuario religioso. Ambos usos, el de palacio y el de santuario, no habrían sido incompatibles. Algunos expertos parecen haber descartado, en cambio, un supuesto carácter militar, por lo que los populares calificativos de «fortaleza» o «ciudadela» podrían haber sido superados.
Machu Picchu (del quechua sureño machu pikchu, «Montaña Vieja») es el nombre contemporáneo que se da a una llaqta —antiguo poblado andino— incaica construida a mediados del siglo XV en el promontorio rocoso que une las montañas Machu Picchu y Huayna Picchu en la vertiente oriental de la cordillera Central, al sur del Perú y a 2490 msnm, altitud de su plaza principal. Su nombre original habría sido Picchu o Picho.
Según documentos de mediados del siglo XVI, Machu Picchu habría sido una de las residencias de descanso de Pachacútec, noveno inca del Tahuantinsuyo entre 1438 y 1470. Sin embargo, algunas de sus mejores construcciones y el evidente carácter ceremonial de la principal vía de acceso a la llaqta demostrarían que esta fue usada como santuario religioso. Ambos usos, el de palacio y el de santuario, no habrían sido incompatibles. Algunos expertos parecen haber descartado, en cambio, un supuesto carácter militar, por lo que los populares calificativos de «fortaleza» o «ciudadela» podrían haber sido superados.
Machu Picchu es considerada al mismo tiempo una obra maestra de la arquitectura y la ingeniería. Sus peculiares características arquitectónicas y paisajísticas, y el velo de misterio que ha tejido a su alrededor buena parte de la literatura publicada sobre el sitio, lo han convertido en uno de los destinos turísticos más populares del planeta.
Machu Picchu está en la Lista del Patrimonio de la Humanidad de la Unesco desde 1983, como parte de todo un conjunto cultural y ecológico conocido bajo la denominación Santuario histórico de Machu Picchu. El 7 de julio de 2007 Machu Picchu fue declarada como una de las nuevas siete maravillas del mundo moderno en una ceremonia realizada en Lisboa, Portugal, que contó con la participación de cien millones de votantes en el mundo entero.
Tabla de Contenidos
1. Procesos de separación
2. Equipo para contacto de fase múltiple
3. Diagramas termodinámicos de equilibrio
4. Equilibrio entre fases a partir de ecuaciones de estado
5. Propiedades de equilibrio a partir de correlaciones de coeficientes de actividad
6. Especificación de variables de diseño
7. Vaporización y condensación parcial de equilibrio
8. Cálculos gráficos de mútiples etapas por el método de McCabe_Thiele
9. Destilación discontinua
10. Cálculos gráficos de etapa mútiple por el método de Ponchon-Savarit
11. Cálculos de extracción en diagramas triangulares
12. Métodos aproximados para separaciones en múltiple etapa de sistemas multicomponentes
13. Capacidad y eficacia de las etapas
14. Síntesis de secuencias de separación
15. Métodos rigurosos para separaciones multicomponentes en etapa múltiple
16. Operaciones de contacto continuo diferencial: Absorción de gases
17. Conservación de energía y eficacia termodinámica Apéndices
I. Constantes y coeficientes de propiedades físicas
II. Fuentes de los programas de ordenador
No todos los microbios que habitan en nosotros son benignos, pero la naturaleza de nuestro cuerpo nos ha permitido sobrevivir a sus constante ataques. Sin embargo, los humanos nos estamos volviendo cada vez más vulnerables a las enfermedades.
Nos vemos expuestos a enfermedades alérgicas tales como el asma o la fiebre y una explicación de ello podría ser la "Hipótesis de la Higiene"(que el sistema inmunológico de nuestro cuerpo reacciona gravemente con algunas enfermedades alérgicas debido a que no tenemos suficiente exposición a la suciedad). De Hecho, la exposición a las bacterias comunes en nuestro entorno pueden llegar a salvar vidas y en este documental veremos como se puede tratar un tumor en el cerebro con el virus del herpes.
Resulta una verdad de Perogrullo que el ajedrecista genial, pero incapaz de enamorarse, y el "rey de las fiestas" que reprueba todos los exámenes exhiben dos "fórmulas" diferentes de inteligencia. Pero aunque desde hace tiempo los neurocientíficos imaginan esta función del cerebro más como un caleidoscopio de habilidades que como una capacidad única, lo cierto es que todavía carece de una definición precisa.
Ahora, un trabajo de investigadores argentinos y británicos al que la revista Brain le dedica nada menos que 14 páginas permite hacer una disección más fina de esta capacidad y ofrece respuestas para dos preguntas que apasionan a los investigadores: ¿cuál es el alcance de la inteligencia general (o "fluida", en la jerga científica)? y ¿dónde residen ésta y otras habilidades cognitivas?
Este estudio confirma resultados previos que indican que la inteligencia general residiría en el lóbulo frontal, pero demuestra además que otras funciones, como la cognición social, se asocian particularmente con el área más anterior de esta área del cerebro y exceden el rol de la inteligencia general
, explica la doctora María Roca, del Instituto de Neurociencias Cognitivas (Ineco) y del Instituto de Neurociencias de la Fundación Favaloro. Roca es la primera autora del trabajo que también firman Teresa Torralva y Facundo Manes, de Ineco y Favaloro, y Alice Parr, Russell Thompson, Alexandra Woolgar, Nagui Antoun y John Duncan, de la Unidad de Cognición y Neurociencias, de la Universidad de Cambridge.
La inteligencia general o fluida podría explicarse como "la capacidad de resolver problemas independientemente de la experiencia vital de cada individuo", explica Manes. Diferentes estudios vinculan esta capacidad con el lóbulo frontal del cerebro, una de las regiones de mayor desarrollo evolutivo en el ser humano.
Sin embargo también hay otras habilidades cognitivas de las que se pensaba que dependían de los mismos circuitos neuronales, tales como la capacidad de inferir sentimientos de otras personas, de inhibir nuestros impulsos o de mantener en mente nuestros objetivos a largo plazo con el fin de lograr una meta.
Para trazar una cartografía precisa de cada una de estas funciones, los investigadores decidieron estudiar a 44 individuos con lesiones focales precisamente en esa área del cerebro y comparar su rendimiento en diversas pruebas cognitivas con el de 33 sujetos de control.
Primero les tomamos tests de inteligencia general, como los de matrices (en los que se les presentan, por ejemplo, un punto, dos puntos, tres puntos y se les pide que completen la secuencia) y otros que miden funciones ejecutivas, como la flexibilidad de pensamiento (la capacidad de adaptar la conducta a cambios ambientales), y de fluencia verbal (por ejemplo, decir todas las palabras que comiencen con una letra determinada) -detalla Roca-. Lo que vimos es que, si bien hubo diferencias entre los individuos con lesión y los controles, éstas podían explicarse por los cambios que tenían en la inteligencia fluida.
Los científicos, entonces, decidieron avanzar otro casillero: se preguntaron si ocurriría lo mismo con otras funciones asociadas con el lóbulo frontal, como la capacidad de detectar estados emocionales.
Les tomamos a seis personas una segunda batería de tests que mide el rendimiento en la capacidades vinculadas con lo que se denomina «inteligencia social» -cuenta Roca-. Así pudimos probar que el lóbulo frontal tiene un área que sirve para manejarse en tareas de razonamiento lógico (la dorsolateral), pero que las funciones más relacionadas con la posibilidad de tener un plan de situación o de cambiar de perspectiva exceden la inteligencia general y dependen de otros circuitos ubicados en la parte anterior del lóbulo frontal.
Concluye Manes:
Antes se pensaba que los elementos básicos eran tierra, agua, fuego y aire. La tabla periódica moderna define los elementos de manera diferente y ahora sabemos que es más adecuada. Lo mismo pasa con conceptos como «memoria», «atención», e «inteligencia». En el uso diario estos términos no están bien definidos, y por eso resulta difícil medirlos. Este trabajo es el primero en demostrar que la inteligencia general no explica la social y, además, abre nuevas vías para la rehabilitación cognitiva
Table of Contents
Chapter 1
The development of yeast strains as tools for adjusting the flavor of fermented beverages to market specifications
Jan H. Swiegers, Sofie M.G. Saerens and Isak S. Pretorius
Chapter 2
Biotechnology of flavor production in dairy products
Bart C. Weimer, Sweta Rajan and Balasubr amanian Ganesan
Chapter 3
Biotechnological production of vanillin
Daphna Havkin-Frenkel and Faith C. Belanger
Chapter 4
Plant cell culture as a source of valuable chemicals
Chee-Kok Chin
Chapter 5
Tomato aroma: Biochemistry and biotechnology
Rachel Davidovich-Rikanati, Yaniv Azulay, Yaron Sitrit, Yaakov Tadmor and Efraim Lewinsohn
Chapter 6
Flavor development in rice
Louis M.T. Bradbury, Robert J. Henry and Daniel L.E. Waters
Chaper 7
Breeding and biotechnology for flavor development in apple
Susan K. Brown
Chapter 8
Aroma as a factor in the breeding process of fresh herbs the case of basil
Nativ Dudai and Faith C. Belanger
Chapter 9
Increasing the methional content in potato through biotechnology
Rong Di
Chapter 10
Regulatory aspects of flavor development – traditional versus bioengineered
Sabine Teske and James C. Griffiths
La bomba flotante es un equipo único, con capacidades y aplicaciones inigualables por otros sistemas de bombeo; el equipo es una unidad operativa completa e integrada, diseñada para operaciones continuas, capaz de manejar grandes volúmenes de agua.
La bomba Flotante puede ser instalada y puesta en operación en un período de tiempo corto, sin necesidad de obras civiles requeridas para otro tipo de bombas de similar, o aun menores capacidades.
La Bomba Flotante es una extraordinaria herramienta para operaciones en zonas urbanas o rurales, donde es imposible o muy costoso construir una estación de bombas clásica, como son las aplicaciones para CONTROL DE INUNDACIONES, operaciones de emergencia, o bombeos temporales; su diseño estructural y materiales están concebidos para operaciones continuas, por largos períodos de tiempo.
This video is meant to help the student community to get started with Hysys. It is purely meant for educational purpose with no commercial interest implied. Use different types of video player. From time to time , I would be upload more such tutorial videos showing how to use and apply hysys. Hope you guys have fun.
Próximamente un nuevo microscopio electrónico de barrido (SEM) comenzará a funcionar en este Centro Atómico. Se trata de uno de los equipamientos más modernos adquiridos por la Institución y el más completo entre los cinco de su tipo que dispone la Argentina. Su proceso de compra se inició en 2008 y fue adquirido a fines de 2009. Está instalado en el edificio Daniel Esparza, en el sector Caracterización de Materiales.
Actualmente, el Dr. Alberto Caneiro y su grupo de trabajo están ultimando los detalles del montaje. Las tareas principales consisten en la instalación de accesorios del equipo y en la adecuación de la sala en la que está contenido. Este espacio fue especialmente diseñado. Tiene aire acondicionado (a fin de mantener siempre una temperatura ambiente ideal) y una base antivibratoria. En el sector contiguo se construyó una sala de preparación de muestras, que también está siendo acondicionada.
Asimismo, personal del área comenzará a capacitarse para la optimización del manejo del equipo.
Algunas características
El nuevo microscopio electrónico de barrido fue comprado a la firma holandesa FEI y a la norteamericana EDAX -ambas compañías líderes en microscopia electrónica y microanálisis- a partir de un subsidio otorgado por la Agencia Nacional de Promoción Científica y Técnica (ANPCyT) y una contraparte aportada por la Comisión Nacional de Energía Atómica. Para obtener este subsidio se asociaron 8 laboratorios del CAB y 2 del Centro Regional Universitario Bariloche.
El nuevo equipo es un tipo de microscopio electrónico de nueva generación y la principal diferencia con respecto al que actualmente funciona en este Centro Atómico es el cañón de electrones. Este nuevo cañón, tipo Schottky, es una fuente de electrones con un brillo 1000 veces superior al de los microscopios convencionales, lo que permite obtener resoluciones de imágenes de 10 Å (1 Amstrong = 10 -8 centímetros).
El Dr. Caneiro subrayó que el nuevo microscopio "es una herramienta que permite visualizar muestras en dimensiones muy pequeñas y obtener información morfológica, química y estructural de los sistemas en estudio". Finalmente, Caneiro informó que este microscopio se utilizará para investigación y desarrollo, tanto para las actividades del CAB como para usuarios externos (empresas, instituciones o centros de investigación) que requieran de esta técnica.
La computadora (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador u ordenador (del francés: ordinateur; y este del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etcétera). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
La computadora (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador u ordenador (del francés: ordinateur; y este del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etcétera). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, ésto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, en base a datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de "la computadora" se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.
En la Segunda Guerra mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales (PC’s). 1 Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio. 2
Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletas, netbooks, notebooks, ultrabooks, pueden ser alimentadas por pequeñas baterías. Computadoras personales en sus diversas formas son iconos de la Era de la información y son lo que la mayoría de la gente considera como "computadoras". Sin embargo, los computadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4; teléfonos celulares; aviones de combate, y, desde juguetes hasta robot industriales.
Tables of Contents
Chapter 1 Introduction
Chapter 2 Pressure Distribution in a Fluid
Chapter 3 Integral Relations for a Control Volume
Chapter 4 Differential Relations for a Fluid Particle
Chapter 5 Dimensional Analysis and Similarity
Chapter 6 Viscous Flow in Ducts
Chapter 7 Flow Past Immersed Bodies
Chapter 8 Potential Flow and Computational Fluid Dynamics
Chapter 9 Compressible Flow
Chapter 10 Open-Channel Flow
Chapter 11 Turbomachinery
Appendix A Physical Properties of Fluids
Appendix B Compressible-Flow Tables
Appendix C Conversion Factors
Appendix D Equations of Motion in Cylindrical Coordinates
Appendix E Introduction to EES Answers to Selected Problems Index
Experimentalmente se comprueba que, en general, en los fluidos no newtonianos, la curva de flujo, representada en escala logarítmica en ambos ejesa, tiene el aspecto siguiente:
Esta curva indica que la función está caracterizada por tres regiones distintas:
Una región newtoniana correspondiente a bajas velocidades de cizalla caracterizada por una viscosidad de cizalla finita y constante, η0 (región newtoniana inferior).
Una región de velocidades de cizalla intermedias caracterizada por una viscosidad que es función de la velocidad de cizalla.
Una región newtoniana correspondiente a altas velocidades de cizalla caracterizada por una viscosidad de cizalla finita y constante, η∞ (región newtoniana superior).
Este tipo de comportamiento, que no es estrictamente pseudoplástico ni dilatante, se puede denotar como “comportamiento estructural” y tiene una explicación microscópica relacionada con la ordenación que se produce en el interior del fluido como consecuencia de la aplicación de la cizalla.
Una de las expresiones más usada para modelizar matemáticamente este comportamiento es el modelo de Cross: Un modelo alternativo es el de Carreau: En la figura siguiente podéis ver un ejemplo de la curva ajustada para un gel de xantana al 1%. Se aprecia la región newtoniana inferior, con viscosidad constante para velocidades muy pequeñas, inferiores a 0,01 s-1. Si consideramos ahora valores intermedios de η tales que η<<η0 y η>>η∞, se obtiene el modelo de Ostwald-de Waele, o ley de la potencia: donde K y n son los parámetros reológicos del modelo. El parámetro K recibe el nombre de consistencia, mientras que n se llama índice de la potencia, y ambos son positivos. Como para n=1 la expresión anterior describe el comportamiento de un fluido newtoniano de viscosidad η= K, resulta que la diferencia entre n y la unidad es una medida del grado de desviación del comportamiento newtoniano. Así, si n<1, tendremos el reograma representativo de un fluido pseudoplástico. Por el contrario, si n>1 el reograma es el característico de un fluido dilatante. A continuación podéis ver unos ejemplos para geles de almidón. Las curvas de flujo se suelen representar de forma doblemente logarítmica, ya que entonces las curvas decrecientes se convierten en rectas y se aprecian mejor las diferencias al modificar variables. En estas rectas, el índice de la potencia es la pendiente, y la ordenada en el origen está relacionada con la consistencia, de manera que rápidamente puede verse cuáles son más viscosos y más o menos pseudoplásticos. Si se extrapola el modelo de la potencia a velocidad cero, vemos que el esfuerzo de cizalla es cero. Sin embargo, se habla de fluidos con esfuerzo umbral ("yield stress"), que se caracterizan por necesitar un valor del esfuerzo de cizalla, σ0, para que empiecen a fluir. Son típicos los ejemplos de la pasta de dientes que necesitamos apretar fuertemente al principio para que empiece a salir, o el golpe inicial que necesita el ketchup para poder empezar a verterlo.
La explicación para esto es que en sistemas dispersos, a altas concentraciones la interacción entre las partículas dispersadas puede conducir a la formación de una estructura tridimensional de rigidez suficiente para soportar cualquier esfuerzo de cizalla inferior a σ0 sin deformarse: en estas condiciones el sistema se comporta como un sólido elástico. Una vez sobrepasado el valor límite, tiene lugar la destrucción de la estructura mencionada y la sustancia comienza a fluir. Ejemplos característicos de sistemas considerados tradicionalmente como plásticos son la pasta de dientes, el chocolate, la arcilla, el ketchup, etc.
Uno de los modelos empíricos más utilizados en alimentación es el de Herschel-Bulkley Por razones históricas, para n=1 se conoce con el nombre de modelo de Bingham (fluidos con viscosidad constante, K, que él llamó fluidos plásticos). Es importante resaltar que no existen realmente fluidos con esfuerzo umbral. Realmente se trata de una limitación experimental. Si se empieza a medir en velocidades de cizalla de 1 s-1 o mayores, parece que el reograma no vaya a pasar por el cero al extrapolar. Sin embargo, cuando se pueden medir velocidades de cizalla mucho menores, ya no se observa este valor, sino que el esfuerzo de cizalla aumenta con la velocidad de cizalla, aunque muy bruscamenteb.