domingo, 18 de noviembre de 2018

SIGNOS VITALES

Posted by Sección 6 On noviembre 18, 2018

¿Qué son los signos vitales?

Los signos vitales son mediciones de las funciones más básicas del cuerpo. Los cuatro signos vitales principales que monitorizan de forma rutinaria los profesionales médicos y proveedores de atención médica son los siguientes:
  • ·         la temperatura corporal;
  • ·         el pulso;
  • ·         la frecuencia respiratoria (ritmo respiratorio);
  • ·         la presión arterial (si bien no se considera a la presión arterial como un signo vital, por lo general se la controla junto con los signos vitales).

Los signos vitales son útiles para detectar o monitorizar problemas de salud. Los signos vitales se pueden medir en un instituto médico, en casa, durante una emergencia médica o en cualquier otro lugar.
¿Qué es la temperatura corporal?
La temperatura normal del cuerpo varía según el sexo, la actividad reciente, el consumo de alimentos y líquidos, la hora del día y, en las mujeres, la etapa del ciclo menstrual. La temperatura corporal normal puede variar entre 97.8 °F (Fahrenheit) equivalentes a 36.5 °C (Celsius) y 99 °F equivalentes a 37.2 °C en un adulto sano. La temperatura corporal de una persona puede medirse de cualquiera de las siguientes maneras:
  • ·         En la boca. La temperatura se puede tomar en la boca con un termómetro clásico o con un termómetro digital que utiliza una sonda electrónica para medir la temperatura corporal.
  • ·         En el recto. La temperatura que se toma por vía rectal (con un termómetro de vidrio o digital) tiende a ser entre 0,5 y 0,7 °F más alta que cuando se toma por vía oral.
  • ·         En la axila. Se puede tomar la temperatura debajo del brazo con un termómetro de vidrio o digital. La temperatura que se toma en esta zona suele ser entre 0,3 y 0.4 °F más baja que la que se toma por vía oral.
  • ·         En la oreja. Un termómetro especial puede medir rápidamente la temperatura del tímpano para reflejar la temperatura central del cuerpo (la temperatura de los órganos internos).
  • ·         En la piel. Un termómetro especial puede medir rápidamente la temperatura de la piel de la frente.

Cuando la temperatura es anormal puede producirse por la fiebre (temperatura alta) o por la hipotermia (baja temperatura). Se entiende como fiebre cuando la temperatura corporal se eleva por sobre un grado de la temperatura normal de 98,6 °F, según la Academia Estadounidense de Médicos de Familia (American Academy of Family Physicians). La hipotermia se define como un descenso de la temperatura corporal por debajo de 95 °F.
¿Qué es el pulso?
El pulso es una medición de la frecuencia cardíaca, es decir, la cantidad de veces que el corazón late por minuto. A medida que el corazón impulsa la sangre a través de las arterias, las arterias se expanden y se contraen con el flujo sanguíneo. Al tomar el pulso no solo se mide la frecuencia cardíaca, sino que también puede indicar:
  • ·         El ritmo cardíaco
  • ·         La fuerza del pulso

El pulso normal de los adultos sanos oscila entre los 60 y 100 latidos por minuto. El pulso puede fluctuar y aumentar con el ejercicio, las enfermedades, las lesiones y las emociones. Las mujeres mayores de 12 años, en general, tienden a tener el pulso más rápido que los hombres. Los deportistas, como los corredores, que practican mucho ejercicio cardiovascular, pueden tener frecuencias cardíacas de hasta 40 latidos por minuto sin presentar problemas de ningún tipo.
Cómo tomarse el pulso
Cuando el corazón impulsa la sangre a través de las arterias, notará sus latidos presionando con firmeza en las arterias, que se encuentran cerca de la superficie de la piel en ciertos lugares del cuerpo. El pulso se puede sentir en la parte lateral del cuello, en la parte interior del codo o en la muñeca. Para la mayoría de las personas lo más sencillo es tomarse el pulso en la muñeca. Si utiliza la parte inferior del cuello, asegúrese de no presionar demasiado y nunca presione sobre ambos lados del cuello al mismo tiempo para no bloquear el flujo de sangre al cerebro. Cuando se tome el pulso:
  • ·         con las yemas de los dedos índice y medio, presione suavemente pero con firmeza sobre las arterias hasta que sienta el pulso;
  • ·         comience a contar las pulsaciones cuando el segundero del reloj marque las 12;
  • ·         cuente el pulso durante 60 segundos (o durante 15 segundos y después multiplíquelo por cuatro para calcular los latidos por minuto);
  • ·         al contar, no mire el reloj continuamente, más bien concéntrese en las pulsaciones;
  • ·         si no está seguro de los resultados, pídale a otra persona que cuente por usted.

Si su médico le indicó que se controle el pulso y tiene dificultades para hallarlo, consulte a su médico o enfermera para obtener indicaciones adicionales.
¿Qué es la frecuencia respiratoria?
La frecuencia respiratoria es la cantidad de respiraciones que una persona hace por minuto. La frecuencia se mide por lo general cuando una persona está en reposo y consiste simplemente en contar la cantidad de respiraciones durante un minuto cada vez que se eleva el pecho. La frecuencia respiratoria puede aumentar con la fiebre, las enfermedades y otras afecciones médicas. Cuando se miden las respiraciones, es importante tener en cuenta también si la persona tiene dificultades para respirar.
La frecuencia respiratoria normal de un adulto que esté en reposo oscila entre 12 y 16 respiraciones por minuto.
¿Qué es la presión arterial?
La presión arterial, medida con un tensiómetro y un estetoscopio por una enfermera u otro proveedor de atención médica, es la fuerza que ejerce la sangre contra las paredes de las arterias. Cada vez que el corazón late, bombea sangre hacia las arterias, lo que produce una presión sanguínea más alta cuando el corazón se contrae. No puede tomarse su propia presión arterial a menos que utilice un tensiómetro electrónico. Los tensiómetros electrónicos también pueden medir el ritmo cardíaco o el pulso.
Cuando se mide la presión arterial se registran dos números. El número más elevado, la presión sistólica, es la presión dentro de la arteria cuando el corazón se contrae y bombea sangre a través del cuerpo; mientras que el número más bajo, la presión diastólica, es la presión dentro de la arteria cuando el corazón está en reposo y llenándose con sangre. Tanto la presión sistólica como la diastólica se registran en "mm de Hg" (milímetros de mercurio). Este registro representa cuán alto la presión sanguínea eleva la columna de mercurio en un tensiómetro antiguo (como el manómetro o el esfigmomanómetro de mercurio). Hoy en día, es más probable que el consultorio de su médico esté equipado con un simple tensiómetro para esta medición.
La presión arterial elevada, o hipertensión, aumenta directamente el riesgo de enfermedades coronarias (ataques cardíacos) y derrames cerebrales (ataques cerebrovasculares). Con la presión arterial elevada, las arterias pueden tener una mayor resistencia contra el flujo sanguíneo, lo que obliga al corazón a bombear con mayor fuerza.
De acuerdo con el Instituto Nacional del Corazón, los Pulmones y la Sangre ("NHLBI", por sus siglas en inglés) de los Institutos Nacionales de la Salud, la hipertensión en adultos se define de la siguiente manera:
  • ·         Presión sistólica de 140 mm Hg o más

o

  • ·         Presión diastólica de 90 mm Hg o más

Una actualización del 2003 de las pautas del NHLBI en cuanto a hipertensión, añadió una nueva categoría de presión sanguínea denominada prehipertensión.
  • ·         Presión sistólica de 120 mm Hg a 139 mm Hg

o

  • ·         Presión diastólica de 80 mm Hg a 89 mm Hg

Las pautas del NHLBI ahora definen a la presión sanguínea normal de la siguiente manera:
  • ·         Presión sistólica de menos de 120 mm Hg

y

  • ·         Presión diastólica de menos de 80 mm Hg


Estos números deben usarse únicamente como guía. Una única medición elevada de presión sanguínea no necesariamente indica un problema. Su médico deseará ver varias mediciones de presión sanguínea durante varios días o semanas para poder llegar a un diagnóstico de hipertensión (presión sanguínea alta) e iniciar un tratamiento. Una persona que habitualmente presenta una presión sanguínea inferior a la normal puede considerarse hipertensa con mediciones de presión de menos de 140/190.


BIOENERGÉTICA

Posted by Sección 6 On noviembre 18, 2018

Bioenergética (bioquímica)

La bioenergética es la parte de la biología muy relacionada con la química física, que se encarga del estudio de los procesos de absorción, transformación y entrega de energía en los sistemas biológicos.

En general, la bioenergética se relaciona con la termodinámica, haciendo especial uso de variables como la energía de Gibbs.

Los cambios en la energía de Gibbs  nos dan una cuantificación de la factibilidad energética de una reacción química y pueden proveer de una predicción de si la reacción podrá suceder o no. Como una característica general de la bioenergética, esta solo se interesa por los estados energéticos inicial y final de los componentes de una reacción química, los tiempos necesarios para que el cambio químico se lleve a cabo en general se desprecian. Un objetivo general de la bioenergética, es predecir si ciertos procesos son posibles o no; en general, la cinética cuantifica qué tan rápido ocurre la reacción química.

El metabolismo
El metabolismo es el conjunto de transformaciones que experimenta la materia externa desde su absorción o adición al citoplasma, hasta su eliminación del mismo. Por ejemplo, las células están compuestas por un complejo sistema de reacciones químicas que generan energía y otras que utilizan energía, esto en general es el metabolismo. El metabolismo comprende dos fases:

El anabolismo: síntesis de compuestos orgánicos.
El catabolismo: degradación de sustancias complejas.
Estos representan la suma de cambios químicos que convierten los alimentos en formas utilizables de energía y en moléculas biológicas complejas.

El ATP
En general, el ATP o trifosfato de adenosin es la conexión entre los sistemas que producen la energía y los que la utilizan; la degradación oxidativa de los alimentos es un proceso exergónico 'son endergónicos y utilizan la energía química almacenada en forma de ATP y NADH.

Relaciones termodinámicas
Las células vivas son capaces de realizar la conversión de distintas formas de energía y pueden intercambiar energía con su entorno, es conveniente revisar algunas leyes o principios de la termodinámica que rigen las reacciones de este tipo. El primer principio de la termodinámica es una ley de conservación de la energía y estipula que, aunque la energía se puede convertir de una forma a otra, la energía total del sistema ha de permanecer constante. Por ejemplo, la energía química disponible en un combustible metabólico tal como la glucosa se puede convertir en el proceso de la glucólisis en otra forma de energía química, el ATP. La energía implicada en un gradiente osmótico electro potencial de protones establecido a través de la membrana mitocondrial puede convertirse en energía química al utilizar dicho gradiente para impulsar la síntesis de ATP. Para discutir el segundo principio de la termodinámica se debe definir el término entropía. La entropía (que se designa con el símbolo S) es una medida o indicador del grado de desorden en un sistema. La entropía se puede considerar también como la energía de un sistema que no se puede utilizar para realizar trabajo efectivo. Todos los procesos, ya sean químicos o biológicos progresan hacia una situación de máxima entropía. No obstante, en los sistemas biológicos es casi imposible cuantificar cambios de entropía ya que estos sistemas raramente están en equilibrio. Por razones de sencillez y por su utilidad inherente en estos tipos de consideraciones, se empleará la cantidad denominada energía de Gibbs.

INTELIGENCIA ARTIFICIAL Y CIBERNÉTICA

Posted by Sección 6 On noviembre 18, 2018

Inteligencia artificial y cibernética, hacia un enfoque sistémico-cibernético
 Norbert Wiener, padre de la cibernética, siempre le preocupó como sería la relación entre humanos y tecnologías y cuál sería el destino de los seres humanos. Él siempre entendió a la cibernética como una nueva forma de pensar y de un nuevo paradigma que rompe con el paradigma mecanicista y determinista. En cambio la IA desde sus orígenes nació desligada de las consecuencias éticas,  de sus trabajos solo importaba la investigación, mientras la cibernética no concibe una maquina inteligente separada de su contexto social, siempre se pensó en una máquina en interacción con su entorno y que respondiera a los propósitos del sistema.

La cibernética, como investigación en sus inicios se basó en la construcción de máquinas autónomas que permitieran la comprensión estructural y funcional de los sistemas vivientes, buscando analogías entre los sistemas vivos y los sistemas artificiales.

La inteligencia artificial,  critico el enfoque cibernético de la búsqueda de analogías y quiso crear una ciencia en si misma basada en la construcción de programas de computación que emularan la inteligencia humana, lo cual llevo a reducir los procesos del pensamiento en complejos algoritmos que podían ser computarizados (metáfora del computador)

Wiener se imaginaba a las máquinas interactuando con el entorno, las maquinas abiertas al entorno y en interacción con los humanos y que podrían ir evolucionando desde maquinas más simples a maquinas más complejas, en lugar del hombre introducirse en las máquinas y hacerse cada vez mas digital (artificial). Para la cibernética será introducir a las máquinas en el entorno humano y convertirla cada vez en más humana.

IA, reduce el proceso del pensamiento al procesamiento de la información que se lleva a cabo de forma aislada en el interior de una computadora. Por otra parte la IA nace dentro del pensamiento positivista, mecanicista y reduccionista desde este enfoque solo cabe pensar en una IA que será cada vez más inteligente dado su crecimiento lineal (retroalimentación positiva): más memoria, más capacidad de procesamiento, más velocidad de cálculo, etc) de ahí el temor de muchos pensadores que ven como solución que la programación de la IA alineada a los intereses humanos. Una vez construida ¿Qué sucederá? ¿Estará alineada a los intereses de sus creadores, como son las grandes transnacionales: Google, Microsoft, IBM, Facebook, Aple, etc? Por otra parte, en muchos casos, se sigue aspirando a una IA a imagen y semejanza de los humanos y se ignoran los descubrimientos de los nuevos cibernéticos: Bateson, Maturana y Valera, entre otros.

En cambio el enfoque sistémico-cibernético, busca lograr, que la sinergia humanos-tecnologías, que se integren como un sistema que tienda al mismo propósito (sistema auto-organizado). Donde humanos y las maquinas, en su interacción, vayan conformando un sistema que se auto-organiza (metasistema).

Comparación entre inteligencia artificial y cibernética
La cibernética, es la construcción de máquinas autónomas y busca una comprensión estructural y funcional de los sistemas vivientes, buscando analogías entre los sistemas vivos y los sistemas artificiales.

Para la cibernética, la complejidad es vista como la evolución, de los cambios que se producen en los sistemas artificiales (máquinas autónomas) y su interacción (simbiosis) con los sistemas vivos. Por eso cuando en la cibernética se habla de máquinas se refiere a máquinas autónomas a diferencia de la inteligencia artificial que cuando habla de máquinas se refiere a máquinas inteligentes. Mientras la preocupación de la cibernética son las máquinas que se auto-regulan y se auto-organizan, para la inteligencia artificial su tema de estudio es como construir una máquina inteligente que iguale o supere la inteligencia humana.

La inteligencia artificial nace dentro del pensamiento positivista, mecanicista y reduccionista desde este enfoque solo cabe pensar en una IA alineada a los intereses humanos
La IA se basa en máquinas inteligentes basadas en el procesamiento de información, programas que se ejecutan y manipulan bases de conocimientos, introducidos por el programador, por lo que son sistemas cerrados y no interactúan con el entorno. Es significativo el hecho de que la IA ve la evolución como máquinas inteligentes que logran igualar y superar la inteligencia de los humanos y que serán capaces a su vez de auto-programarse y construir máquinas más inteligentes. Por lo que estamos ante una retroalimentación positiva: máquinas inteligentes que a su vez construyen máquinas más inteligentes y así infinitamente. Esta es la idea central de la singularidad tecnológica.

En cambio la cibernética, tiene como fundamento para la evolución, la retroalimentación negativa, o sea la regulación del sistema para lograr su adaptación al entorno, no crece infinitamente sino que se va ajustando por medio de la interacción no solo con el entorno sino también con los sistemas vivos y con otras máquinas (sistemas artificiales)

Una idea interesante es que para la cibernética los sistemas por una parte son abiertos informacionalmente están en interacción (interacciones recurrentes) con el entorno (sufren cambios estructurales continuos)  y por otra  parte son sistemas cerrados organizacionalmente (preservan su patrón de organización en red), lo cual le permite conservar su orden interno y funcionar como un sistema en equilibrio. Cuando se rompe el orden interno, el sistema se desorganiza y deja de funcionar como tal (las máquinas autónomas son a la vez dependientes e independientes del entorno). O sea, su gestión organizativa se realiza hacia dentro (cerrada) para evitar el caos y el desorden mientras su gestión de la información es abierta, procesa la información del exterior y se reajusta al entorno por medio de la retroalimentación. Por naturaleza los sistemas tienden hacía el equilibrio del sistema y a controlar los desórdenes de manera neguentrópica, con el fin de mantener la organización. En este proceso se dan la adaptación y cambio del sistema, pero siempre hacia el equilibrio como respuesta a las amenazas tanto internas como externas.

Maturana y Valera. La teoría de Santiago
En la trama de la vida, Frijot Capra, explica las interacciones de un organismo con su entorno partiendo de las ideas de Maturana y Varela, la llamada teoría de Santiago.
Puesto que la cognición se define tradicionalmente como el proceso del conocimiento, debemos ser capaces de describirla en términos de las interacciones de un organismo con su entorno.

Esto es efectivamente lo que hace la teoría de Santiago. El fenómeno específico que subyace en el proceso de cognición, es el acoplamiento estructural. Como hemos visto, un sistema autopoiésíco sufre cambios estructurales continuos, preservando al mismo tiempo su patrón de organización en red. En otras palabras, se acopla a su entorno estructuralmente mediante interacciones recurrentes, cada una de las cuales desencadena cambios estructurales en el sistema. No obstante, el sistema permanece autónomo; el medio sólo desencadena los cambios estructurales, no los especifica ni dirige.
A medida que aumenta el grado de complejidad de su sistema vivo, se incrementa su territorio cognitivo. El cerebro y el sistema nervioso en particular representan una expansión significativa del territorio cognitivo de un organismo, ya que incrementan mucho el campo y diferenciación de sus acoplamientos estructurales.

A un cierto nivel de complejidad, un organismo vivo se acopla estructuralmente no sólo a su entorno, sino consigo mismo, alumbrando así tanto un mundo exterior como otro interior. En los seres humanos, el alumbramiento de dicho mundo interior está íntimamente vinculado con el lenguaje, el pensamiento y la consciencia.

La complejidad del sistema social
Podemos sacar la conclusión que las máquinas cibernéticas son sistemas autónomos que están en interacción, no solo con el ambiente sino también con los sistemas vivos, lo cual ira produciendo una sinergia entre las máquinas autónomas y los humanos y con ello una transformación de la cual emergen nuevas organizaciones acorde con el propósito del sistema (metasistema) como un todo.
Con relación de complejidad de un sistema con su entorno, podemos decir  que en el mundo actual la complejidad del sistema social es muy superior a la complejidad del sistema ecológico por lo cual el sistema socio-económico está produciendo enormes cambios en el ecosistema en muchos casos de carácter destructivo, de ahí que Morin hable de una auto-eco-organización, ya que no es solo la auto organización del sistema social, se necesita de una auto-organización global entre los sistemas social, biológico, sicológico y ecológico.
           
 INTELIGENCIA ARTIFICIAL Y CIBERNETICA
Inteligencia artificial (IA): máquinas (inteligentes) que como sistema artificial serán capaces de hacerse cada vez más inteligentes por sí mismas (retroalimentación positiva, proceso lineal y exponencial) hasta superar a los humanos. Deberán, inicialmente, ser programadas para que estén alineadas con los intereses humanos (sistema cerrado al que se le suministra conocimientos). En general la maquina es vista como un mecanismo separado de los humanos y que se desarrolla dentro de un entorno digital.

Cibernética: máquinas (autónomas) que como sistemas artificiales se desarrollan en interacción (colaboración) y en equilibrio con los humanos (enfoque sistémico-cibernético) y tendrán como finalidad un mismo propósito general. Se produce una sinergia en la que sujeto no pierde su condición humana (ectosimbiosis mutual). Las máquinas como un mecanismo en interacción con los humanos y con el entorno natural (abiertas al entorno). Ectosimbiosis mutual que busca el equilibrio del sistema como un todo y sigue el principio de recursividad (retroalimentación negativa). Enfoque sistémico-cibernético (desde la complejidad), nueva mentalidad donde el humano por medio del conocimiento que se va obteniendo en su sinergia con las tecnologías inteligentes, alcanza la sabiduría.

Sinergia humanos-tecnologías
Las tecnologías están presentes en el individuo, la sociedad y el entorno y se está produciendo una sinergia humanos-tecnologias. Sinergia tecno-bio-sico-social

1.-Individual: tecno-individuo (ciborg). La tecnologización va del individuo hacia fuera
         Fusión tecnológica entre el individuo y la tecnología

2.-Social: Tecno-sociedad
         Superorganismo global (cerebro global): tecno individuo-sociedad. Se produce una fusión tecnológica entre el individuo y la sociedad de alcance global
         Superorganismo colaborativo (sistema colectivo): la sinergia tecnológica entre una nueva mentalidad y la sociedad sin que se pierda la esencia de la relación individuo-entorno.

3.-Tecnológica: transformar el entorno natural (sustitución por la tecnología) y van a absorber a la sociedad y al individuo (singularidad tecnológica).
         Sustituye al entorno natural
         Sustituye al contexto social
         Sustituye al individuo (sujeto biológico) y lo convierte en objeto tecnológico
La singularidad tecnológica plantea una evolución artificial donde los humanos como mentes digitales viven en un entorno artificial (tecno-centrismo) donde el individuo se está haciendo cada vez más independiente de la naturaleza y más dependiente de las tecnologías

Vamos a una sinergia humano-tecnología, la cual puede ser exógena o endógena o ambas a la vez
         La exógena puede llevar a una subordinación de los humanos (dominio de las tecnologías)
         La endógena puede llevar a la desaparición de la condición humana.
La colaboración con las tecnologías y la ampliación exógena de lo natural
         Dependencia total de las tecnologías. Las tecnologías controlan a los humanos (tiranía de las máquinas), para evitar este escenario se propone como solución la prohibición de las tecnologías, lo cual lleva a una ectosimbiosis parasitaria donde las tecnologías se ven como enemigas: virus y parásitos tecnológicos.
         Tecnología como herramienta. Escenario ingenuo que asumen que las tecnologías siempre estarán bajo control y que solo harán lo se les programe. Conservar la era actual (ectosimbiosis comensal)
         Colaboración humano-tecnología y la ampliación exógena de los natural (ectosimbiosis mutual)
Sinergia exógena (ecologismo)
         Mutualismo: proteger la relación interactiva con el entorno natural como un metasistema. Se produce una ampliación, producto de la interacción, con el entorno natural.
         Comensalismo: conservar el entorno natural, las tecnologías se utilizan bajo regulación, los posibles entornos artificiales siempre estarán subordinados (supeditados) al natural. El entorno artificial se desarrolla para satisfacer las necesidades del ser humano y implementa bajo fuerte control.
         Parasitismo: regreso al entorno natural, las tecnologías deben ser prohibidas ante los posibles riesgos. Se produce un retroceso al entorno natural y se prohíbe el entorno artificial y todo vestigio con las tecnologías disruptivas.

La cosmovisión de la complejidad y las nuevas tecnologías
La  relación de una cosmovisión de la complejidad desde un enfoque sistémico-cibernético (estamos hablando de las tecnociencias)
1.         Surgimiento de una singularidad tecnológica, endosimbiosos parasitaria dada la dependencia absoluta que tendrán los seres humanos de las máquinas, aquí se hablará de las ideas de Vinge, Moravec y Kurzweil (enfoque computacional – metáfora del computador –conciencia trivial)

2.         Surgimiento del transhumanismo, donde cada individuo tiene la posibilidad de mejorarse por medio de las tecnologías y con ello ampliar sus facultades, en sus dos variantes liberal (endosimbiosis mutual) o democrática (endosimbiosis comensal) (enfoque hibrido – conciencia físico reproducible)

3.         Surgimiento de un supe organismo que se construye de forma colectiva por la interacción entre humanos y máquinas. Tendremos dos variantes el cerebro global y el superorganismo colaborativo (ectosimbiosis mutual), este último desde la visión de la complejidad (enfoque cibernético – conciencia holística

Teniendo en cuenta el factor tecnológico como elemento transformador de la realidad y como la ideología más influyente sobre el futuro de la humanidad. Se necesita de una cosmovisión que acepte el impacto de las tecnologías y las transformaciones que vendrán, para lo cual se busca una alternativa que nos guíe hacia un futuro sostenible sin perder nuestra condición humana y, en mi opinión, solo el pensamiento complejo, nos puede ayudar a encontrar esa vía.



Ventajas y desventajas de la inteligencia artificial
Junto con las ventajas, el avance tecnológico en cuanto a máquinas inteligentes conlleva riesgos, de acuerdo el blog Inteligencia Artificial Grupo 7 que hace la siguiente relación:
Ventajas
En el ámbito laboral reduce los costos y salarios adicionales.
Por resultar un atractivo, conlleva a generar más ingresos.
Se han desarrollado aplicaciones que realizan tareas que el hombre nunca hubiera podido hacer debido a su complejidad.
Puede predecir situaciones a largo plazo.
Reduce el tiempo que consume realizar cierta actividad.
Lograr grandes hallazgos y avances.
Desventajas
Por ser software, requieren de constantes actualizaciones (mantenimiento).
Realizar estos sistemas expertos requiere de mucho tiempo y dinero.
Crear máquinas que sean autosuficientes y puedan ir desplazando a la raza humana.
El uso irracional y exagerado de esta tecnología podría conllevar a la dominación de las máquinas sobre el hombre, como también llegar a depender mucho de ellas.
El hombre se siente menos importante cuando una máquina o un sistema “lo supera”.

LA INFORMÁTICA Y LA MEDICINA NUCLEAR

Posted by Sección 6 On noviembre 18, 2018

La Informática y la Medicina Nuclear.
La medicina nuclear es una especialidad de la medicina que se encarga especial y principalmente al diagnóstico de pacientes. Proporciona informaciones esenciales y funcionales, así como el tratamiento correcto de las diversas patologías. Utiliza radioisótopos o isótopos radiactivos, es decir, radiaciones nucleares y otras técnicas biofísicas para que el diagnóstico sea el más certero.
La medicina nuclear sirve para detectar cualquier mal dentro del cuerpo, los isótopos radiactivos se encargan de controlar por las diferentes vías el organismo y detectar así cualquier patología. Estos isótopos pueden ser estables, es decir, que no emiten radiaciones u otros radiactivos.

Las radiaciones emitidas pueden ser de diferente índole:
Ø  Radiación gamma, es decir, radiaciones electromagnéticas.
Ø  Emisiones de partículas alpha o beta.

Las radiaciones son artificiales y proceden de reacciones nucleares controladas que tienen lugar en reactores nucleares o en ciclotrones.

Se pueden encontrar de dos formas químicas:
Ø  Estructuras simples
Ø  Estructuras complejas moleculares, conocidos como los radiofármacos.

¿Qué es y para qué sirve?
Como comentábamos la medicina nuclear es una rama de las imágenes médicas que utilizan pequeñas cantidades de material radioactivo para llegar a conocer y determinar la gravedad de la enfermedad en cuestión, incluye muchas enfermedades que es capaz de detectar: tipos de cáncer, enfermedades del corazón, enfermedades gastrointestinales, neurológicos y otras anomalías.
Este tipo de medicina es capaz de identificar toda actividad molecular dentro del organismo, ofrecen el potencial para identificar la enfermedad en las primeras etapas de creación.



Cómo funciona la medicina nuclear
La medicina nuclear utiliza un agente de la imagen que una vez dentro en el cuerpo es capaz de emitir una señal, esa señal es detectada por un dispositivo de detección de imagen capaz de desarrollarla y comprender qué está ocurriendo en ese organismo. Las sondas de imagen se acumulan en un órgano específico, se unen a ciertas células, permiten la visualización y medición de procesos biológicos y también de la actividad celular.
En medicina nuclear, el agente de la imagen es un compuesto molecular que incluye una parte muy pequeña de agentes radiactivos y éstos son los encargados de detectar mediante una gammacámara o una cámara de PET las señales recibidas.

Origen:
La Medicina Nuclear inicia su desarrollo como especialidad a finales de los años 40, momento en el que se decide utilizar la energía nuclear con fines médicos. 1946 constituye una fecha histórica, ya que se construye el primer reactor productor de radionúclidos.
Cronología a nivel mundial
Ø  1895 Descubrimiento de los Rayos X - Roentgen.
Ø  1896 Descubrimiento de la radioactividad de uranio - Becquerel.
Ø  1898 Descubrimiento de la radioactividad natural - Marie Curie.
Ø  1913 Desarrollo del concepto de isotopía - Soddy.
Ø  1923 Primera utilización de los trazadores en la exploración biológica - Hevesey.
Ø  1927 Puesta a punto de un detector de radiaciones - Geiger y Müller.
Ø  1931 Construcción del primer ciclotrón.
Ø  1934 Descubrimiento radioactividad artificial - Curie y Joliot.
Ø  1938 Primeros estudios de la fisiología del tiroides (131I).
Ø  1939 Primeras aplicaciones terapéuticas.
Ø  1946 Construcción del primer reactor productor de radionúclidos.
Ø  1951 Construcción del Scanner con cristal de centelleo de yoduro sódico, que permite realizar las primeras gammagrafías - Reed y Libby.
Ø  1952 El término "Medicina Nuclear" sustituye al de "Medicina Atómica" que se había empleado hasta entonces.
Ø  1956 Desarrollo del radio Inmuno Análisis.
Ø  1962 Aparición de los generadores de 99mTc, con cualidades idóneas como trazadores y posibilidades de unión a diversos fármacos.
Ø  1963 Construcción de la cámara de centelleo - Anger.

A partir de los años 60 el desarrollo de la Medicina Nuclear es imparable. Son de gran importancia la puesta a punto en los años 70 de la técnica del SPECT CEREBRAL, y en los años 80 del PET (Tomografía por emisión de positrones).

Usos de la medicina nuclear
Los médicos utilizan esta moderna técnica para los siguientes procedimientos:

Corazón: visualizan el flujo sanguíneo, comprueban la función del corazón, detectan la enfermedad de la arteria coronaria y el grado de estenosis coronaria. Además, es capaz de evaluar los daños después de un ataque al corazón, evalúa las opciones para los pacientes que se van a someter a un bypass o una angioplastia, así como el detectar un rechazo de transplante y evaluación después de la quimioterapia.
Pulmones: se realiza esta técnica para detectar los problemas de flujo de sangre y problemas respiratorios, al igual que para detectar un posible rechazo de transplante.
Huesos: evalúa los huesos en una fractura, infección o artritis. Evalúa prótesis, tumores óseos e identifica los sitios de biopsia.
Cerebro: es ideal para investigar anomalías, convulsiones, pérdida de memoria y alteraciones en el flujo sanguíneo. Puede llegar a detectar la enfermedad de Parkinson, tumores cerebrales y ayuda a una buena planificación quirúrgica.
Cáncer: localiza ganglios linfáticos antes de la cirugía en pacientes con cáncer de mama o de piel, así como la detección de los tejidos blancos. Tumores raros en el páncreas o en las glándulas supranerrales.
Riñones: la medicina nuclear ayuda a analizar la función nativa y el posible transplante, detecta la obstrucción de las vías urinarias, evalúan la hipertensión relacionada con las arterias renales.

Gracias a estas nuevas técnicas los médicos, científicos y profesionales de la salud han conseguido grandes avances en:
Ø  Entender los mecanismos de distintas enfermedades.
Ø  Descubrir rápidamente nuevos fármacos.
Ø  Han mejorado la selección de tratamientos especializados para cada paciente según sus necesidades.
Ø  Evalúan concretamente y certeramente la respuesta del paciente a los nuevos tratamientos.
Ø  Se han encontrado nuevas maneras de identificar individuos de riesgo de contraer enfermedades determinadas y en ocasiones graves.

Origen y evolución de la Gammagrafía.
Origen
Se origina en 1951 cuando Red y Libby crean el Grammágrafo o Scanner, para que Mayneord y cois realicen las primeras  grammagrafías con oro coloidal radioactivo

Evolución.
La Historia comienza con la llamada "ERA DE LAS RADIACIONES " que se inicia a finales del siglo pasado cuando Ròntgen descubre los Rayos X en 1895, Becquerel la radioactividad del Uranio en 1896 y Marie Curie la radioactividad natural en 1898, siendo estos dos últimos los que podrían ser llamados los precursores de los que en un futuro se conocerían como especialistas en Medicina Nuclear.
En 1913 Soddy introduce el concepto de "isotopía " y posteriormente en 1923 Von Heves y desarrolla las técnicas de trazadores en los métodos de exploración biológica. Debido a ello se le recuerda como el "abuelo de la Medicina Nuclear". Asimismo Geiger y Müller en 1927 consiguen obtener el primer detector de radiaciones gamma.

Sin embargo es a partir de 1934 cuando realmente comienza la Medicina Nuclear actual, con el descubrimiento por parte de los esposos Joliot Curie de la radioactividad artificial.

 En 1938 Roberts y Evans realizan los primeros estudios sobre la fisiología tiroidea con radioyodo, mientras que Hamilton y Soley determinan las curvas de captación y excreción del 131 I por parte del tiroides. Se inician de esta forma las aplicaciones médicas de los radioisótopos, a partir de este momento los descubrimientos de las aplicaciones e indicaciones clínicas de los isótopos radioactivos son incesantes, por lo que exclusivamente se citarán los más significativos.

En 1941 Hahn y cois realizan por primera vez la determinación de los volúmenes sanguíneos con 59 Fe y Hertz y Roberts inician los tratamientos metabólicos con radioyodo del hipertiroidismo, mientras que en 1945 Seidlin y Marinelli aplican el radioyodo para el tratamiento del cáncer de tiroides.

El primer contador de centelleo fue construido por Cassen en la Universidad de California Los Angeles en 1949. Posteriormente en 1951 Red y Libby crean el Grammágrafo o Scanner, para que Mayneord y cois realicen las primeras  grammagrafías con oro coloidal radioactivo.

Hasta estas fechas los profesionales que trabajaban en este campo se les conocía como "especialistas en Medicina Atómica", pero en el Ll l Congreso de la American Roetgen Ra y Society el Dr Reynolds propone y se acepta el nombre de Medicina Nuclear para esta especialidad médica.

En 1962 Harper y Lathrop introducen el 99mTc como trazador en Medicina Nuclear, sustancia que posteriormente se utilizará en más del 80 % de las técnicas de la especialidad. En este mismo año la informática se integra en la Medicina Nuclear cuando Hidalgo y cois usan un ordenador IB M para el cálculo de volúmenes sanguíneos con técnicas radioisotópicas.

En 1963 es también un año histórico para la especialidad, ya que Anger construye La Gammacámara con 19 tubos fotomultiplicadores, aparato que sigue siendo la mejor "herramienta de trabajo" de la especialidad.

Finalmente son de resaltar la utilización del contador de cuerpo entero por Oberhausen en 1968, la introducción de un ordenador con software específico en 1969, el diagnóstico tumoral con 67 Ga  en 1970 y la introducción hace pocos años de las gammacámaras rotatorias para la realización de SPECT (single photon emission computed tomography) y PET (positrón emission tomography).

APLICACIONES PATOLÓGICAS MÁS COMUNES EN DONDE ES UTILIZADA

      La gammagrafía ósea y de tiroides son los exámenes con mayor demanda, seguido del renograma isotópico o análisis renales indica la responsable del Servicio de Medicina Nuclear del Hospital Regional Lambayeque, doctora Rossana Flores Tipismana (18 de febrero del 2016).

La aplicación de las técnicas de la medicina nuclear, se centra, fundamentalmente, en el terreno del diagnóstico y en el apartado terapéutico. Las técnicas de diagnóstico, están basadas en los trazadores o radiofármacos, que son substancias que, introducidas en el organismo, permiten su seguimiento desde el exterior. Son compuestos que permiten estudiar la morfología y el funcionamiento de los órganos, incorporándose a ellos y emitiendo una pequeña cantidad de radiación que es detectada por unos aparatos llamados Gammacámaras, con los cuales se obtienen imágenes morfofuncionales y funcionales.

Reciben el nombre de trazadores, porque se utilizan a dosis muy pequeñas, no tienen ninguna acción curativa ni efectos secundarios ni reacciones adversas graves. Actualmente existen más de 100, que permiten el diagnostico precoz en huesos corazón, cerebro, oncología, entre otros. El trazador se fija en el órgano (cerebro, tiroides, corazón, etc.) o sistema determinado (óseo, linfático, etc.) para el que ha sido producido y se administra al paciente por vía intravenosa, vía oral o por otras vías, según el órgano y la función del mismo a examina.

En el terreno terapéutico proporciona procedimientos terapéuticos, tales como la terapia de yodo radioactivo (I-131), que utiliza pequeñas cantidades de material radioactivo para tratar cáncer y otros problemas de salud que afectan la glándula tiroides, como así también otros cánceres y condiciones médicas.

En ciertos pacientes pediátricos, la terapia dirigida radioactiva con iodo también se puede utilizar en el cáncer pediátrico denominado Neuroblastoma utilizando I-131 marcado con MIBG (metaiodobenzilguanidina).

La radioinmunoterapia es un tratamiento personalizado del cáncer que combina la radioterapia con la capacidad de hacer blanco de la inmunoterapia (un tratamiento que imita la actividad celular del sistema inmune del cuerpo). Los pacientes con linfoma No-Hodgkin que no responden a la quimioterapia podrían ser sometidos a una radioinmunoterapia (RIT) utilizando radiosondas, itrio 90 o iodo 131 unido a anticuerpos monoclonales.También se pueden utilizar los materiales radioactivos samario 153 y estroncio 89 para reducir el dolor debido a las metástasis en los huesos.

En el terreno terapéutico la medicina nuclear se aplica sobre todo al tratamiento del cáncer de tiroides y el dolor de huesos

VENTAJAS

·        A los pacientes se les da un radiofármaco de isótopos radiactivos por un vector, que es el vehículo que hace que se fije donde quiero llegar, como los huesos o el corazón. Los que se emplea tiene una energía pequeña y una vida media corta, es decir, son poco agresivos.

·        En neurología las gammagrafías cerebrales están indicadas para tres patologías: enfermedades degenerativas como la demencia; la epilepsia y el síndrome parkinsoniano. Éste último es relativamente nuevo, desde 2010 y ofrece resultados muy positivos.

·        ¿Qué supone para un enfermo del Parkinson esta prueba? Existen cinco o seis síndromes muy parecidos que conllevan tratamientos y manejos diferentes. Son grupos de enfermedades neurodegenerativas similares pero con diagnóstico y tratamientos diferentes. Antes era a los cuatro o cinco años cuando se lograba diferenciar la enfermedad, y ahora con esta prueba se permite el diagnóstico diferencial y orientar el diagnóstico desde el principio, con los beneficios que esto conlleva de ahorro de pruebas y medicamentos y de beneficio para el paciente y su calidad de vida. Es un paso importante.

·                            La gammagrafía es eficaz, altamente sensible, segura, indolora y permite, incluso, aventurar si se puede llegar a producir un evento cardiaco: un infarto. El mejor detective de la salud de las arterias del corazón, la llamada cardiología nuclear.

DESVENTAJAS

El beneficio reportado es mayor que las desventajas, por tanto las desventajas muchas veces son omitidas pero sin embargo existe cierto riesgo como lo es la exposición mínima a las radiaciones ionizantes. Cuando las dosis de radiación superan determinados niveles pueden tener efectos agudos en la salud, tales como quemaduras cutáneas o síndrome de irradiación aguda. Las dosis bajas de radiación ionizante pueden aumentar el riesgo de efectos a largo plazo, tales como el cáncer (OMS - Abril de 2016).

CASO VENEZOLANO
“Padecer una enfermedad crónica es más grave en medio de la crisis” El Sacrificio de Mago, Moliné y Ferrer, de recurrir a la salud privada, no es casualidad. Para pacientes y trabajadores, la Unidad Oncológica Klever Ramírez Rojas, situada en el hospital Luis Razetti de Barcelona, es una muestra innegable de la realidad que atraviesa el sistema público. Su fachada no da cuenta de la crisis, pero puertas adentro enfrenta fallas. Equipos dañados, falta de reactivos y medicamentos ponen en la cuerda floja la vida de muchos. A pesar de que fue creada en 2009 con la enorme responsabilidad de brindar atención a más 700 mil habitantes de Anzoátegui, Monagas y Delta Amacuro, una paciente que prefirió el anonimato dijo que de las dos máquinas para radioterapia sólo funciona una, lo cual reduce a la mitad la cantidad de gente atendida. Un trabajador, que también omitió su identidad, indicó que la máquina de medicina nuclear con la que se realiza la gammagrafía (prueba de imagen parecida a las radiografías, tomografía computarizada o resonancia magnética, que es muy útil para diagnósticos) fue reparada, pero no puede ser usada porque no hay reactivos. Por ello el despistaje es muy difícil (21.02.2016).

Enero pasó entre la esperanza y la angustia por la falta de isótopos radiactivos para el diagnóstico y tratamiento del cáncer. Llegada la segunda semana de febrero, la situación que viven los pacientes de todo el país es de desesperación. El diagnóstico nacional: desde diciembre pasado no queda "ni una gota" de yodo radiactivo 131 utilizado para tratar los casos de cáncer de tiroides. "La situación es nacional, tanto en hospitales como en clínicas", aseguró Marjorie Chaparro, encargada de Medicina Nuclear del Centro Médico Docente La Trinidad. Semanalmente se importaban entre 40 y 44 cápsulas del yodo para atender a más de 160 pacientes ubicados en todo el territorio nacional. Pero la escasez ha obligado a los médicos a paralizar las consultas. "Es indispensable que los pacientes (con cáncer de tiroides) reciban tratamiento con yodo radiactivo 131 después de una cirugía", explicó la especialista. Pero no se trata solo del yodo 131, sino también del tecnecio 99, utilizado principalmente para gammagrafías óseas (en los casos de metástasis) y renales, además de estudios cerebrales y cardiológicos. "Esto no está llegando desde la semana pasada. Es decir, toda Venezuela está paralizada para el diagnóstico", alertó Chaparro (12-02-2014)