Promocione sus productos o servicios con nosotros
Diciembre de 2018 Página 1 de 4

Tendencias en la búsqueda de una dosis de radiación amigable con los pacientes

Por Andrés Mongui, IE

La compra de equipamiento médico diagnóstico por parte de los hospitales debe enfocarse en el empleo de mínimas dosis posibles por estudio y por tipo de paciente.

Evolución de la radiología

Gran parte del cerebro del hombre está dedicado a procesar información visual, razón fundamental por la cual uno de los principales sueños desde los orígenes de la medicina en Grecia con Hipócrates o en Roma con Galeno era lograr detallar la anatomía, los procesos patológicos y la fisiología dentro del cuerpo humano en situación funcional y en presencia de enfermedades o alteraciones físicas.

El sueño comienza a ser realidad en Alemania en 1895, año en el cual se produce por el físico Roentgen el descubrimiento que da lugar a los rayos X y a la imagen médica como prueba diagnóstica. El hallazgo definitivamente fue trascendental para la época, algunos soñadores vieron el invento que se propagó rápidamente alrededor del mundo como una señal que indicaba que la ‘máquina de la medicina’ había sido descubierta.

Los prototipos de la llamada ‘máquina de la medicina’, se fueron conociendo de forma acelerada alrededor del mundo. Roentgen liberó sin restricciones su invento en pro de la evolución clínica y esto avaló a fotógrafos, eléctricos, físicos y prácticamente a cualquier persona como responsable de la utilización de la nueva máquina, buscando poner en práctica su beneficio y extraer todo su potencial. El invento llega a Thomas Edison, quien contribuye a mejorarlo a través de pruebas en diferentes materiales, que le permitieron identificar aquellos que respondían con mayor fluorescencia a los rayos X, dichos aportes fueron claves para el desarrollo del primer Vitoscopi (más tarde llamado Fluoroscopio).

Para principios de siglo, la utilización aún desconocida de la nueva tecnología determina que la señora Clarence M. Dally, auxiliar de laboratorio y del hogar de Edison, fuera la primera víctima reconocida del uso de los rayos X [1]. La mano de Clarence y la de otros operarios del fluoroscopio, funcionaba como el único medio de prueba de la dureza de los rayos, lamentablemente esto desencadenó en instancias de cáncer y quemaduras por radiación.

Estas circunstancias detonan la primera evolución necesaria de la ‘máquina de la medicina’ y permiten el ingreso de propuestas que permitieran reducir los tiempos de exposición y la cantidad de radiación para obtener una imagen diagnóstica y mejoras sobre la pantalla intensificadora como primera solución parcial. En realidad, es hasta 1914 que Patterson Screen Company anuncia las primeras pantallas intensificadoras de tipo industrial; el siguiente paso fue el ‘sándwich’, que posicionaba el medio captador ahora entre dos pantallas de intensificación recubiertas con químicos fluorescentes para incrementar la velocidad de registro y así disminuir el tiempo de exposición a los rayos X.

En pleno desarrollo del proceso de estandarización, surge la primera guerra mundial en Europa y comienzan las dificultades para obtener el vidrio proveniente principalmente de Bélgica, que obligan a la especialidad radiológica a buscar otros medios o materias que obren como captador y que fueran lo suficientemente idóneos. Para finales de la guerra, la estandarización básica de los diferentes tubos de rayos X y otros componentes, logra desembocar en el tubo llamado Coolidge, que permite por primera vez lograr exposiciones controladas y reproducibles.

Los cambios, por buenos que sean, no siempre han sido fáciles de incorporar. Para el año 1918 comienzan a implementarse avances en el filme de pantalla (SF) con nuevas emulsiones químicas que admiten un resultado óptimo. La nueva película ofrecía una ventaja apreciable sobre los platos de vidrio, sin embargo, hubo muchos años de prejuicio antes de lograr convencer a los radiólogos de utilizarla. Esto era necesario si se quería obtener la automatización en los procesos de revelado, obligatorio para controlar los resultados. Los primeros prototipos de reveladora automática se presentan para 1942, cuando el primer modelo podía procesar 120 filmes de pantalla por hora, usando perchas especiales de secado y un ciclo completo de 40 minutos [2].

El procesamiento automático fue beneficioso para los departamentos de radiología, para 1956 los terminados radiográficos estuvieron disponibles en solo seis minutos y la variabilidad de los resultados causados por el elemento humano fue eliminado del proceso. Esto permitió a los tecnólogos y radiólogos intentar estandarizar las técnicas de modo que se necesitaban menos repeticiones, a la vez que los tiempos de espera de los pacientes para la confirmación de una toma adecuada disminuyeron. Aspectos como eficiencia, flujo de trabajo y calidad radiográfica ligados a una dosis menor, denominaron el avance en la radiografía médica de la época y seguirían siendo los ejes de la industria en investigaciones futuras.

El control exacto de las variables involucradas en las técnicas radiográficas, colimadores, automatismos, buckies, celdas AEC, entre otros, fueron importantes adiciones en la adquisición de imágenes diagnósticas durante las siguientes dos décadas. No obstante, la verdadera tecnología que probaría una dosis adecuada al paciente aun tendría que ser desarrollada.


Palabras relacionadas:
Reducción de los tiempos de exposición de los pacientes a los rayos X, técnicas radiográficas actuales, historia de la Radiología Computarizada (CR), era de la radiología digital, parámetros del estudio radiológico, gestionar la dosificación radiológica, reportes de las dosis radiológicas, EH1218IDOS.

Acerca del autor

Por Andrés Mongui, IE

Por Andrés Mongui, IE

Ingeniero electrónico, especialista en Tecnología de Comunicaciones. Gerente de lanzamiento de producto para América Latina de Agfa HealthCare.
x

Sección patrocinada por

Otras noticias de Imágenes diagnósticas y Medicina nuclear

Documentos relacionados