Variabilidad inter observador en la interpretación del electroencefalograma
Author
Type
Trabajo de grado - Pregrado
Document language
EspañolPublication Date
2015Metadata
Show full item recordSummary
Existen diversos estudios que comparan la variabilidad entre diversos intérpretes del electroencefalograma (EEG), sin embargo, ningún trabajo ha evaluado la concordancia en la interpretación entre expertos y no expertos y esta información no está disponible en nuestro país. El objetivo de este trabajo es conocer esta variabilidad al comparar un experto y dos no expertos con entrenamiento básico en neurofisiología y definir si existen diferencias de acuerdo al tiempo de entrenamiento de los no expertos. Para ello cada uno de los intérpretes, con la misma información clínica y posibilidad de reformateo digital de los estudios, leyó 150 EEGs de rutina en mayores de 18 años y clasificó cada estudio en diez posibles categorías. Se encontró que existe un acuerdo moderado {κ 0.43} entre los tres observadores y una tendencia a mejorar la concordancia con el tiempo de entrenamiento en los evaluadores no expertos {κ 0.39, IC 95% 0.31-0.49, p ˂0.05 vs κ 0.51, IC 95% 0.43-0.6, p ˂0.05}. Sin embargo, para algunas categorías diagnósticas como la actividad epileptiforme focal, este grado de concordancia es pobre. A través de este trabajo se muestra que la variabilidad en algunas de las interpretaciones es alta por lo que se hace necesario buscar mecanismos que disminuyan el grado de error en la interpretación.Summary
Abstract Several papers have compared the inter rater reliability in the electroencephalogram (EEG) interpretation, however, none of those have acquainted the agreement between expert and non-expert readers. Our objective is to determine the inter rater reliability when comparing an expert and two non-experts readers who received basic training in neurophysiology, also we want to know if the training duration for non-experts influences on the percentage of agreement. In order to obtain that information, each of three raters got the same clinical information and could apply digital reformatting for 150 routine EEG’s done in people over 18 years of age and classified them in 10 possible diagnostic categories. A moderate agreement between raters was found {κ 0.43}, however, for certain diagnostic categories such as focal epileptiform activity that agreement was poor. Also, a better correlation with the expert was found, when comparing the non-expert rater that was trained during prolonged time versus the basically trained rater {κ 0.39, CI 95% 0.31-0.49, p ˂0.05 vs κ 0.51, CI 95% 0.43-0.6, p ˂0.05}. We demonstrated a high inter rater variability with moderate to poor agreements, so we propose the creation of mechanisms to decrease the errors in the interpretation of EEG’s.Keywords
Collections
