Ir Arriba Ir abajo


Bienvenidos en chino
Mobbing-acoso laboral-IRG
contador de visitas

Fertilization Nucleus Medical Media


Fertilization is the epic story of a single sperm facing incredible odds to unite with an egg and form a new human life. The sperm's journey is visualized with rich detail and narrative to convey a fresh understanding of a classic physiological tale.

This medical animation portrays the process of human fertilization. Shown at a cellular level magnification, sperm struggle through many obstacles in the female reproductive tract to reach the egg. Visualized at the molecular level, genetic material from the egg and a single sperm combines to form a new human being.

Created By: Thomas Brown, Stephen Boyd, Ron Collins, Mary Beth Clough, Kelvin Li, Erin Frederikson, Eric Small, Walid Aziz, Nobles Green.

Encapsulation Encapsulate your precious active compound!

Clic en la imagen

What is Encapsulation?
Encapsulation is the immobilization of active ingredients in a polymer matrix. The active compounds which are immobilized are for example enzymes, drugs, flavors & fragrances, vitamins, oils, cells or microbes.

There is a wide range of polymer matrices which can be utilized such as alginate, carrageen, cellulose sulphate, chitosan, gelatine or pectin, as well as waxes. The polymer matrix is used as a protection shield or as a barrier through which only specific compounds can diffuse.

Uniform beads and capsules with high reproducibility are produced with the sophisticated encapsulation technology provided by BUCHI. Their size is pre-selectable in the range of 0.15 mm to 2 mm with a spherical shape, a narrow size distribution (< 5% standard deviation) and a productivity of up to 6’000 beads per second.



Why Encapsulation?
Encapsulation is gaining greater attention as a mild, continuous and scalable process. It is particularly used to protect or stabilize drugs, microorganisms, enzymes or cells in a polymeric matrix.

The wide variety of polymer matrices allows the construction of beads with specific features. Hydrogel matrices have an open pore structure so that small hydrophilic molecules like peptides diffuse freely in and out. However, lipophilic molecules or large hydrophilic molecules like proteins remain immobilized in the matrix. The diffusion behavior of mole cules in and out of the bead can be modified by the addition of a secondary membrane. This possibility is very helpful in cell transplantation to reject the host immune system at the bead surface. Therefore foreign implanted cells are protected against the host immune system.

Biodegradable polymers allow the construction of slow release formulations. The uniform bead size, which is especially achievable with the Encapsulator, offers better modification options of the release profile.

Fuente:

Doug Coleman and Jeffrey Friedman 2010 Lasker Awards

Click on image

For the discovery of leptin, a hormone that regulates appetite and body weight;a breakthrough that opened obesity research to molecular exploration.

Fuente: LaskerFoundation

Liofilización - Concepto - Parte II Tecnologías para la Industria Alimentaria
Técnica Magalí Parzanese


Una sustancia pura puede existir como sólido, líquido o gas y puede cambiar de estado por medio de un proceso en el cual libera o absorbe calor a temperatura constante (calor latente), de esto depende hacia donde se direcciona dicho cambio.

El cambio de fase de sólido a gas o sublimación, debe realizarse en condiciones de presión y temperatura menores a las del punto triple (punto en el que conviven los tres estados de la materia), ya que por debajo de éste no existe la fase líquida. En el caso del agua el punto triple se encuentra a 4,58 Torr y 0,008 °C. Por ejemplo si se tiene agua congelada, al calentarla a una presión menor a la de dicho punto el hielo sublima.

Las sustancias moleculares disueltas en el agua disminuyen su punto de fusión (descenso crioscópico), por esto es conveniente describir el enfriamiento y posterior congelación de una solución de este tipo en varias etapas. Al bajar la temperatura de una solución, inicialmente se produce un subenfriamiento que origina los núcleos de cristalización, luego la temperatura aumenta hasta la de equilibrio. A partir de ese momento comienzan a desprenderse los cristales de hielo puro, por lo que la solución se concentra hasta alcanzar la menor temperatura a la cual puede existir solución en equilibrio con hielo, denominada temperatura eutéctica. Por debajo de esta temperatura debería existir, idealmente, equilibrio entre hielo y soluto. Sin embargo las soluciones que contienen polímeros naturales como azúcares no cristalizan en este punto, sino que aumentan su viscosidad a medida que disminuye la temperatura y el agua se congela. Esta etapa finaliza cuando el sistema alcanza su temperatura de transición vítrea, donde su viscosidad aumenta significativamente en un pequeño rango de temperatura dando lugar a un sólido amorfo y frágil. Con relación a la conservación de alimentos, es importante destacar que el flujo viscoso dentro de este sólido es prácticamente nulo, casi no existe flujo de materia, lo que evita que ocurran reacciones químicas. Cabe aclarar que no toda el agua que compone un alimento está disponible para que los microorganismos puedan llevar a cabo sus actividades metabólicas, solo el agua libre cumple dicho propósito. El contenido de agua libre en un alimento se define como aw – actividad de agua. Al deshidratar un producto su disponibilidad de agua (libre) disminuye drásticamente.


Para eliminar entonces la mayor parte del agua libre contenida en el sólido obtenido, se le debe entregar calor a fin de lograr la sublimación total del hielo, cuidando que la temperatura del producto se mantenga siempre por debajo de su temperatura de transición vítrea. Al final de este cambio de fase se obtiene un producto que conserva el volumen y tamaño original, presentado la forma de un vidrio altamente poroso.

La ventaja de esta estructura es que permite una rápida rehidratación, no obstante es frágil por lo que requiere de una protección que prevenga los posibles daños ocasionados por una inadecuada manipulación. Asimismo, debido a la porosidad de dicha estructura es necesario realizar el empaque del producto de forma tal que se evite la penetración de oxígeno, a fin de impedir procesos oxidativos sobre los lípidos.

Fuente:
alimentos argentinos

Preparados de fruta D. Domingos Almeida
Frulact

Clic en la imagen

Fuente: Todolácteo

Geekye Capítulo 20
CN23TV

Cargando ...
Clic sobre una imagen para reproducir

Programa emitido el sábado 20 de octubre de 2012 por CN23.
  • Con Lisandro Bass, conocemos un nuevo teclado controlador. Además, mostramos la nueva ultradelgada ExoNifty y el celular HTC One X, dos recién llegados al país
  • Entrevistamos a Patricio Sabatrini, creador de Panal de Ideas, un nuevo sitio de financiamiento colectivo para artistas

Fuente: CN23TV

Hysys Tutorial 5 examples
James M. Lee

Click on image

HYSYS is an interactive process engineering and simulation program. It is powerful program that you can use to solve all kinds of process related problems. However, since you have to provide various conditions and choices in order to solve a problem, you cannot use it effectively unless you have good knowledge about the process and the solution procedures. The objective of this class is to introduce you to the program so that you can use it as you take core chemical engineering courses in the future.

You can find all kinds of documentation (tutorials, manuals, examples, etc) from the following web site:

http://www.hyprotech.com/hysys/support/index.html - HYSYS%20Documentation

You can find numerous other resources by searching the web. You search results will include many course web sites of other chemical engineering departments. Let’s start with simple examples to find out how HYSYS works.

Gram Negativas y Fermentación de Lactosa Pruebas Bioquímicas
Lourdes Colon Ortíz

Desviaciones de los Modelos Flujo y Contacto Ideales Escala y tiempo de mezcla - Reactores No Ideales
F. Cunill, M.Iborra, J.Tejero, C.Fité

En los capítulos anteriores se ha modelizado el denominado reactor ideal; en él se ha considerado que el flujo es ideal (ya sea mezcla perfecta o flujo en pistón), que no había agregados moleculares (y por tanto de una sola fase), así mismo se considera que el tiempo de mezcla de los reactantes al entrar en el reactor es nulo.

Los reactores ideales son interesantes ya que generalmente uno u otro suele ser el óptimo y porque las matemáticas que conllevan son relativamente sencillas.

El modelo matemático de un reactor consta de:
  • La ecuación de diseño (Balance del componente limitante) la cual a la vez se obtiene teniendo en cuenta la ecuación cinética, el modelo de flujo y el modelo de contacto
  • El balance de entalpía
  • El balance de energía mecánica

Dicho modelo sirve para simular, y por tanto predecir el comportamiento del reactor. Los reactores reales no se ajustan a la situación idealizada. Presentan desviaciones que llevan a resultados diferentes a los predichos por la idealización, aunque siempre limitados entre los dos extremos ideales. Consecuentemente es necesario considerar el modelo de flujo y contacto real para poder tener el modelo de reactor real que permita hacer predicciones correctas.

En el modelo de reactor real el modelo de flujo real se define a través del grado de macromezcla, la cual esté entre los dos extremos ideales de flujo en pistón y de mezcla perfecta. Las principales desviaciones del modelo de flujo real respecto al ideal son
  • las zonas muertas
  • los cortocircuitos
  • y las canalizaciones
Mientras que el modelo de contacto real se define a través del grado de micromezcla, el cual puede estar entre el microfluido (fluido no segregado, es decir, el fluido está formado por moléculas individuales. Por ejemplo, gases y líquidos ordinarios no viscosos) y el macrofluido (fluido segregado, es decir, formado por flóculos, grupos o agregados de moléculas. Por ejemplo, gotículas, partículas de sólido y líquidos ordinarios viscosos). Por último se ha de considerar el tiempo de mezcla de los elementos de fluido, en particular si el tiempo de reacción es grande comparado con el tiempo de residencia. Este factor tiene poca importancia para una sola corriente de alimentación, pero puede ser importante cuando hay más de una corriente de alimentación.


En el resto del tema el estudio se considerará una sola corriente de fluido y un tiempo de reacción moderado y lento comparado con el tiempo de mezcla de forma que el tercer factor tenga una influencia despreciable.


Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29

CES 2013 Tecnología
C5N

CES 2013 - C5N - Avibert

Informe de Nicolás Magaldi. El Consumer Electronic Show es una feria de tecnología que muestra las tendencias mundiales.

Fuente: C5N

Influenza Nucleus Medical Art

Grafeno El material más delgado y más fuerte


Una capa de grafito de sólo un átomo de espesor promete revolucionar la tecnología en un futuro no muy lejano. El INTI ya trabaja junto al Instituto Nacional de Metrología de Estados Unidos para adquirir conocimientos que permitan manipularlo.

Una capa de grafito de sólo un átomo de espesor promete revolucionar la tecnología en un futuro no muy lejano. El INTI ya trabaja junto al Instituto Nacional de Metrología de Estados Unidos para adquirir conocimientos que permitan manipularlo.

El grafeno es una forma del carbono y es el nombre dado a una capa de sólo un átomo de espesor del grafito. Este material fue recientemente sintetizado y ampliamente estudiado por Andre Geim y Konstantin Novoselov, quienes por esta razón recibieron el premio Nobel de Física 2010.

El grafito, que es el material que puede encontrarse en los lápices, consiste en un apilamiento de capas de grafeno, y en el caso de Geim y Novoselov, ellos lograron aislarlo simplemente usando cinta adhesiva. La estructura de red bidimensional que presenta el grafeno es similar a un panal de abejas y le otorga al sistema propiedades únicas, que prometen importantes aplicaciones futuras. Además, los electrones en el grafeno se comportan con efectos relativísticos extraños, aunque a velocidades mucho menores que la de la luz, que lo convierten en un sistema de gran interés en su estudio.

Un comportamiento muy especial del grafeno es que presenta efecto Hall cuántico (QHE) a temperaturas no muy bajas, aún a temperatura ambiente. El efecto Hall cuántico es un fenómeno por el cual muchos sistemas presentan valores de resistencia Hall, es decir resistencia transversal al paso de una corriente dada, que están cuantificados. El Laboratorio de Patrones Cuánticos de la Unidad Técnica Electricidad del Centro de Física y Metrología se dedica, entre otras actividades, al mantenimiento de la referencia en resistencia eléctrica a través del efecto Hall cuántico. En el laboratorio se comenzó a trabajar en el grafeno como material para obtener la resistencia Hall cuántica en reemplazo de las muestras con las que se trabaja actualmente basadas en heteroestructuras de GaAs (arsenuro de galio).

Los trabajos más recientes en el área han mostrado que se obtiene el mismo efecto sobre una muestra de grafeno sometida a una temperatura de 4,2 K, que es la temperatura del helio líquido. Inclusive se ha observado el efecto en el grafeno a temperaturas cercanas a la temperatura ambiente, pero todavía no puede contarse con ello pues los niveles de incertidumbre con los que se obtiene la referencia hasta el momento no son deseables desde el punto de vista metrológico.

Para trabajar en el desarrollo y la investigación del grafeno para producir el QHE, el Instituto Nacional de Metrología de Estados Unidos (NIST, por sus siglas en inglés) ha iniciado un proyecto al cual invitaron al INTI a participar. Esta cooperación permite adquirir conocimientos en los aspectos básicos y aplicados relacionados al grafeno, junto con el aprendizaje de las técnicas necesarias para su síntesis y manipulación. Actualmente un miembro del Instituto se encuentra haciendo una estadía en el NIST como investigador invitado, colaborando en el desarrollo y la fabricación de las muestras de grafeno, que son crecidas en forma epitaxial en una atmósfera de argón.

La segunda etapa del proyecto estará realizada en su totalidad en el INTI y consistirá en caracterizar las muestras para determinar su aplicación en metrología: estudio de la cuantificación, análisis de la resistencia transversal y longitudinal, movilidad, dependencias del valor de la resistencia Hall (RH) con los parámetros del sistema, corriente crítica. La caracterización deberá permitir al Instituto obtener valores para RH (patrón primario de resistencia eléctrica) similares a los valores obtenidos con las muestras de GaAs (arsenuro de galio) usadas hasta el momento, con una exactitud en la comparación de pocas partes en 109.

Pros y contras
Las propiedades del grafeno no se encuentran en otros materiales. Es el material más delgado y más fuerte conocido hasta el momento. Como conductor eléctrico presenta mejores características que el cobre, a tal punto que se piensa que en el futuro habrá toda una nueva electrónica basada en el grafeno; como conductor térmico supera a todo material conocido. Es prácticamente transparente pero tan denso que ni aún el helio, el gas atómico más liviano, puede penetrarlo. Debido a esta característica de ser prácticamente transparente (pues está formado por una única capa de átomos) y al mismo tiempo un excelente conductor eléctrico, el grafeno es un material muy adecuado para la producción de pantallas táctiles transparentes, paneles luminosos o celdas solares.

Por otro lado, si bien el grafeno es sustancialmente más fuerte que el acero, es mucho más elástico. Debido a que tanto su conductividad eléctrica como su conductividad térmica son muy altas, se está planteando el desarrollo de nuevos materiales que incrementen la resistencia al calor, y bastaría con agregar un 1% de grafeno a un material plástico para convertirlo en buen conductor eléctrico, lo que lleva a pensar en su uso en satélites, en la industria aeronáutica o en la automotriz. También, como el grafeno presenta una estructura cristalina perfecta, es muy adecuado para la producción de sensores extremadamente sensibles que podrían registrar niveles mucho más bajos de detección de los que existen hasta el momento.

Sin embargo las mismas propiedades electrónicas del material lo vuelven sensible a factores externos (presión, moléculas depositadas sobre su superficie, contaminación, entre otras), de forma tal que al producir el grafeno a escalas macroscópicas se pierde parte de su estructura cristalina. Por el momento, en la obtención del grafeno sólo se logran áreas relativamente pequeñas donde el sistema es monoatómico y monocristalino. En la actualidad la mayoría de los usos del grafeno que se han mencionado se encuentran en estado de investigación y son aún potenciales, aunque varios de ellos ya han sido probados y se cree que en los próximos años puede surgir un verdadero cambio en los sistemas electrónicos y en la ciencia de los materiales.

Fuente:

Alejandra Tonina, atonina@inti.gob.ar
INTI-Física y Metrología

Geekye Capítulo 19'
CN23TV

Cargando ...
Clic sobre una imagen para reproducir

Programa transmitido el sábado 6 de octubre de 2012.
  • Entrevistamos a Hernán Botbol, co-fundador de Taringa y a Tatu Estela, Director de Taringa Música.
  • Segunda parte de la entrevista a Hernán Botbol y Tatu Estela de Taringa. Hablamos del juicio, de Taringa Música y de la nueva realidad que vive Internet.
  • Presentamos la nota a Ekoparty, la expo de seguridad y probamos los parlantes inalámbricos Logitech.
  • Con Sebastián Di Nardo, probamos las guitarras Eurocase y Level UP para consolas y un comando para dialogar mientras jugamos.
  • Última parte de Geekye! con Sebas Di Nardo, repasamos las novedades de Medal Of Honor Warfighter.
Fuente: CN23TV

El Reconocimiento Premio Nobel de Medicina 1984
César Milstein

Click en la imagen

César Milstein ganó el Premio Nobel de Medicina en 1984 por su descubrimiento de los anticuerpos monoclonales. A partir de ese momento, comenzó a ser invitado y consultado desde todos los continentes para el desarrollo de esa particular tecnología.

Fuente: Manfenix08

Cloud Computing and Open Educational Resources Denpong Soodphakdee

Antártida, el Paraíso Helado Aventura Científica
Canal Encuentro

Clic en la imagen

Fuente: Manfenix08

Reactor de mezcla perfecta Diseño de Reactor Ideal (en reacc.multip. simult.)
F.Cunill, M.Iborra, J.Tejero


Los balances de materia de A, B, R y S son


por lo que


lo cual separando variables lleva a


con


e igual que en el apartado anterior derivando se obtiene


El tiempo espacial se calcula con el BMM, donde las concentraciones se calculan a partir de las ecuaciones 4.15, 4.16, 4.17 y 4.18. La Figura 4.9 muestra la representación gráfica de la solución.

Distribución sustancias en flujo pistón y discontinuos



Ver también: 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28

Alternating-Current Generator Enrique Zeleny


Fuente: Demonstrations.Wolfram.com

Los Niños pueden Aprender por sí Mismos Sugata Mitra

Click on image

Ref: Sugata Mitra | Hole in the Wall
Fuente video: Claudiuspat

Geekye Capítulo 19
CN23TV

Cargando ...
Clic sobre una imagen para reproducir

Programa emitido el 29 de septiembre de 2012.
  • Hablamos con el CEO de Afluenta, Alejandro Cosentino. En Ekoparty, hacemos historia con la computación de la mano de Carlos Chiodini.
  • Ultima parte, con Sebastián Di Nardo, miramos el avance de Resident Evil 4
Fuente: CN23TV

Granulación aerobia Tecnologías de Tratamiento de Aguas Residuales

Gránulos aerobios

El tratamiento biológico de las aguas residuales en las estaciones depuradoras de aguas residuales a menudo se lleva a cabo por medio de la aplicación de sistemas basados en lodos activos. Estos sistemas generalmente requieren grandes superficies para la implantación de las diversas unidades de tratamiento y posterior separación de la biomasa, debido a la pobre sedimentabilidad de los lodos. En los últimos años se han desarrollado nuevas tecnologías buscando mejoras en estos sistemas. El uso de lodo granular aerobio es una de ellas.

Biomasa aerobia granular
Una definición para distinguir entre un gránulo aerobio y un simple flóculo con buena sedimentabilidad se propuso en los debates que tuvieron lugar durante el “1er IWA-Workshop Aerobic Granular Sludge” en Munich (2004) y dice literalmente:
“Los gránulos que forman un lodo granular aerobio son agregados de origen microbiano que no coagulan en condiciones de bajo estrés hidrodinámico y que sedimentan significativamente más rápido que los flóculos de lodo activo.” (de Kreuk et al. 2005)"

Formación de gránulos aerobios
La biomasa granular aerobia se forma en reactores discontinuos secuenciales (Sequencing Batch Reactors, SBR) sin materiales de soporte. Estos sistemas cumplen los requerimientos necesarios para la formación de los gránulos, como son:
Periodos de saciedad-hambruna: se utilizan tiempos cortos de alimentación para crear periodos de saciedad seguidos de periodos de hambruna (Beun et al. 1999[2]), caracterizados por la presencia o ausencia de materia orgánica en el medio líquido respectivamente. Con esta estrategia de alimentación se logra la selección de los
microorganismos adecuados para la formación de los gránulos. Cuando la concentración de sustrato en el medio líquido es alta, los organismos que forman gránulos pueden almacenar materia orgánica en forma de poly-''β''-hidroxibutirato que pueden consumir en el periodo de hambruna, con lo que estos organismos estarán en ventaja en esas condiciones sobre los organismos filamentosos.

Reactor SBR, con gránulos aerobios.

Tiempos cortos de sedimentación: esta presión selectiva hidráulica sobre los microorganismos permite retener la biomasa granular dentro del reactor, mientras la biomasa floculenta es lavada. (Qin et al. 2004[3])
Estrés hidrodinámico: las pruebas muestran que la aplicación de altas fuerzas de corte favorece la formación de gránulos aerobios y mejora las características físicas de los mismos. Los gránulos sólo se forman con valores de esfuerzo cortante superiores a un valor umbral de 1,2 cm/s en términos de velocidad superficial ascensional del aire en un reactor SBR. Se forman gránulos más regulares, más redondeados y más compactos cuanto más alta sea la fuerza de corte hidrodinámica. (Tay et al., 2001).


Fuente:

Primer Transplante de Células Madre Dentales BioEDEN México

Click on image

Fuente: BioEDENMexico

Transporte Neumático de Azúcar Tecnología Azucarera


Fuente: Oga

Calidad Total Memo Perez
Gestiópolis

Calidad Total

Antecedentes
La historia de la humanidad está directamente ligada con la calidad desde los tiempos más remotos, el hombre al construir sus armas, elaborar sus alimentos y fabricar su vestido observa las características del producto y enseguida procura mejorarlo. La práctica de la verificación de la calidad se remonta a épocas anteriores al nacimiento de Cristo. En el año 2150 A.C., la calidad en la construcción de casas estaba regida por el Código de Hammurabi, cuya regla # 229 establecía que "si un constructor construye una casa y no lo hace con buena resistencia y la casa se derrumba y mata a los ocupantes, el constructor debe ser ejecutado". Los fenicios también utilizaban un programa de acción correctiva para asegurar la calidad, con el objeto de eliminar la repetición de errores. Los inspectores simplemente cortaban la mano de la persona responsable de la calidad insatisfactoria. En los vestigios de las antiguas culturas también se hace presente la calidad, ejemplo de ello son las pirámides Egipcias, los frisos de los templos griegos, etc.

Durante la edad media surgen mercados con base en el prestigio de la calidad de los productos, se popularizó la costumbre de ponerles marca y con esta práctica se desarrolló el interés de mantener una buena reputación (las sedas de damasco, la porcelana china, etc.) Dado lo artesanal del proceso, la inspección del producto terminado es responsabilidad del productor que es el mismo artesano. Con el advenimiento de la era industrial esta situación cambió, el taller cedió su lugar a la fábrica de producción masiva, bien fuera de artículos terminados o bien de piezas que iban a ser ensambladas en una etapa posterior de producción. La era de la revolución industrial, trajo consigo el sistema de fábricas para el trabajo en serie y la especialización del trabajo. Como consecuencia del alta demanda aparejada con el espíritu de mejorar la calidad de los procesos, la función de inspección llega a formar parte vital del proceso productivo y es realizada por el mismo operario (el objeto de la inspección simplemente señalaba los productos que no se ajustaban a los estándares deseados.)

A fines del siglo XIX y durante las tres primeras décadas del siglo XX el objetivo es producción. Con las aportaciones de Taylor, la función de inspección se separa de la producción; los productos se caracterizan por sus partes o componentes intercambiables, el mercado se vuelve más exigente y todo converge a producir. El cambio en el proceso de producción trajo consigo cambios en la organización de la empresa. Como ya no era el caso de un operario que se dedicara a la elaboración de un artículo, fue necesario introducir en las fábricas procedimientos específicos para atender la calidad de los productos fabricados en forma masiva. Durante la primera guerra mundial, los sistemas de fabricación fueron más complicados, implicando el control de gran número de trabajadores por uno de los capataces de producción; como resultado, aparecieron los primeros inspectores de tiempo completo la cual se denominó como control de calidad por inspección.

Las necesidades de la enorme producción en masa requeridas por la segunda guerra mundial originaron el control estadístico de calidad, esta fue una fase de extensión de la inspección y el logro de una mayor eficiencia en las organizaciones de inspección. A los inspectores se les dio herramientas con implementos estadísticos, tales como muestreo y gráficas de control. Esto fue la contribución más significativa, sin embargo este trabajo permaneció restringido a las áreas de producción y su crecimiento fue relativamente lento. Las recomendaciones resultantes de las técnicas estadísticas, con frecuencia no podían ser manejadas en las estructuras de toma de decisiones y no abarcaban problemas de calidad verdaderamente grandes como se les prestaban a la gerencia del negocio.

Esta necesidad llevó al control total de la calidad. Solo cuando las empresas empezaron a establecer una estructura operativa y de toma de decisiones para la calidad del producto que fuera lo suficiente eficaz como para tomar acciones adecuadas en los descubrimientos del control de calidad, pudieron obtener resultados tangibles como mejor calidad y menores costos. Este marco de calidad total hizo posible revisar las decisiones regularmente, en lugar de ocasionalmente, analizar resultados durante el proceso y tomar la acción de control en la fuente de manufactura o de abastecimientos, y, finalmente, detener la producción cuando fuera necesario. Además, proporcionó la estructura en la que las primeras herramientas del control (estadísticas de calidad) pudieron ser reunidas con las otras muchas técnicas adicionales como medición, confiabilidad, equipo de información de la calidad, motivación para la calidad, y otras numerosas técnicas relacionadas ahora con el campo del control moderno de calidad y con el marco general funcional de calidad de un negocio.

Evolución del concepto de calidad
Es por esto, que el término de calidad ha cambiado durante la historia, lo cual es importante señalar, tal como se muestra en el cuadro inicial.

Esta evolución nos ayuda a comprender de dónde proviene la necesidad de ofrecer una mayor calidad del producto o servicio que se proporciona al cliente y, en definitiva, a la sociedad, y cómo poco a poco se ha ido involucrando toda la organización en la consecución de este fin. La calidad no se ha convertido únicamente en uno de los requisitos esenciales del producto sino que en la actualidad es un factor estratégico clave del que dependen la mayor parte de las organizaciones, no sólo para mantener su posición en el mercado sino incluso para asegurar su supervivencia.

Definición de la calidad
La calidad es un concepto que ha ido variando con los años y que existe una gran variedad de formas de concebirla en las empresas, a continuación se detallan algunas de las definiciones que comúnmente son utilizadas en la actualidad.

La calidad es:
  • Satisfacer plenamente las necesidades del cliente.
  • Cumplir las expectativas del cliente y algunas más.
  • Despertar nuevas necesidades del cliente.
  • Lograr productos y servicios con cero defectos.
  • Hacer bien las cosas desde la primera vez.
  • Diseñar, producir y entregar un producto de satisfacción total.
  • Producir un artículo o un servicio de acuerdo a las normas establecidas.
  • Dar respuesta inmediata a las solicitudes de los clientes.
  • Sonreír a pesar de las adversidades.
  • Una categoría tendiente siempre a la excelencia.
  • Calidad no es un problema, es una solución.
El concepto de Calidad según:

Edwards Deming: "la calidad no es otra cosa más que "Una serie de cuestionamientos hacia una mejora continua".

Dr. J. Juran: la calidad es "La adecuación para el uso satisfaciendo las necesidades del cliente".

Kaoru Ishikawa define a la calidad como: "Desarrollar, diseñar, manufacturar y mantener un producto de calidad que sea el más económico, el útil y siempre satisfactorio para el consumidor".

Rafael Picolo, Director General de Hewlett Packard: define "La calidad, no como un concepto aislado, ni que se logra de un día para otro, descansa en fuertes valores que se presentan en el medio ambiente, así como en otros que se adquieren con esfuerzos y disciplina".

Con lo anterior se puede concluir que la calidad se define como "Un proceso de mejoramiento continuo, en donde todas las áreas de la empresa participan activamente en el desarrollo de productos y servicios, que satisfagan las necesidades del cliente, logrando con ello mayor productividad".


Memo Pérez
the_series@hotmail.com

Fuente: Gestiópolis