Este documento está disponible en ZENODO: https://zenodo.org/records/14826460
1 Introducción
Partamos por tanto, de este punto. Un ordenador o computadora es, a pesar de su complejidad tecnológica, solamente una herramienta al servicio de un usuario. Como sucede con un martillo, una lavadora, o un vehículo, los ordenadores son “cosas” que pueden utilizar las personas para llevar a cabo una o más tareas. Desde esta perspectiva, y tal como ocurre con cualquier herramienta, se necesita aprender unas cuestiones básicas para su utilización.
Durante décadas los ordenadores fueron máquinas asequibles tan sólo a una elite intelectual y económica. Solamente después de la comercialización del primer computador personal, por parte de IBM en el año 1981, el mundo de la informática deja de ser una parcela exclusiva de grandes empresas y unos pocos agraciados, capaces de comprender los lenguajes de programación. Desde el 12 de mayo de 1981, cuando se presentó el primer ordenador personal (PC), el número de equipos ha aumentado hasta alcanzar casi los 600 millones en todo el mundo. Hoy en día es casi inimaginable concebir a un investigador, profesor o maestro que no desarrolle su trabajo con la ayuda, más o menos constante, de un ordenador.
En el desarrollo de los ordenadores personales los investigadores dentro de la investigación cualitativa, mantenían sus procedimientos tradicionales sin ordenador, porque los equipos informáticos sólo permitían trabajar eficazmente con datos cuantitativos generalmente después de una exigente formación en programación, sobre todo al principio. Sin embargo, desde hace casi tres décadas, las diversas aplicaciones informáticas difundidas en el ámbito académico (desde el clásico wordperfect hasta las recientes versiones de Observer o Atlas-ti) han favorecido que prácticamente nadie permanezca al margen del mundo de la informática.
La situación puede calificarse como una ‘dependencia obligatoria’ de la informática en la investigación para garantizar cierto nivel de competitividad. Sin embargo, esto no implica que el ordenador haya sustituido al investigador.. El investigador sigue siendo fundamental en el control y desarrollo de la ciencia, así como en la reflexión creativa y el planteamiento de líneas de trabajo.
En investigación de corte cualitativo se utiliza información de muy distinta naturaleza (textual, visual, auditiva, gráfica, etc.). Esta diversidad ha representado un reto para los desarrolladores de software, quienes han intentado crear programas útiles para todo el proceso, aunque no siempre con éxito.. Por esta razón en el software de análisis cualitativo podemos encontrar una considerable cantidad de programas que hacen varias tareas del análisis de forma óptima, pero son deficitarios en otras. Por ejemplo, hasta hace pocos años no han aparecido programas que realmente pudiesen integrar imagen, audio y texto para ser tratados de forma efectiva. Precisamente por esta complejidad innata a los datos cualitativos, el tema se inicia con una breve disertación sobre qué carácter tiene la información cualitativa.
2 Definición de análisis cualitativo asistido por computadora
ACDAO o CAQDAS en inglés (Computer assisted qualitative data analysis) es el conjunto de tareas de análisis cualitativo que se realiza con software informático. El término CAQDAS fue propuesto por Fielding y Lee en 1991, después de que la informática tuviese suficiente desarrollo como para contar con un arsenal de programas informáticos suficiente como para satisfacer la mayoría de las necesidades de la comunidad científica con relación al análisis cualitativo.
El ACDAO tiene dos vertientes, por un lado la cuestión metodológica, es decir, el conjunto de estrategias científicas que se aplican a los datos. Por otro lado, la vertiente tecnológica, la de programación, que se materializa en la distribución de paquetes y aplicaciones informáticas diseñadas para la investigación. Ambas corren de la mano, una sin la otra no tiene sentido. El software se diseña para satisfacer una necesidad manifestada por los investigadores. La existencia de un software canaliza a los investigadores a promover investigaciones donde tenga sentido utilizar ese software. Las nuevos problemas de investigación determinan nuevas necesidades, y la existencia de programas informáticos que ayuden en ese ámbito de la ciencia permite a los investigadores profundizar en el mismo. La relación es por tanto de dependencia, e incluso a veces, la existencia en el mercado de un determinado programa, diseñado para aplicarse dentro de unos criterios metodológicos concretos, induce a los investigadores a realizar investigaciones dentro de esos criterios o parámetros. Por ejemplo, la existencia de programas como Aquad o como Nvivo, que siguen una secuencia concreta para la codificación y elaboración de teorías, fomentan entre los investigadores a enfocar sus investigaciones desde este tipo de metodologías, en perjuicio de otras estrategias. De aquí surge otra idea esencial: La perspectiva metodológica y el software de análisis cualitativo se determinan mutuamente.
3 Rol del software en la investigación cualitativa
El software de análisis cualitativo, al contrario que el de análisis estadístico/cuantitativo, tiene un rol subsidiario en la tarea analítica puesto no realizan las partes más complejas, esenciales o repetitivas del mismo. El proceso de categorización, codificación, creación, reflexión, etc., recae inevitablemente en el investigador.
Por ejemplo, un profesor universitario está preocupado por el impacto de la redes sociales (facebook, tuenti, etc.) en su alumnado. Para averiguar algo al respecto pasa un cuestionario a todos sus alumnos y además entrevista a cinco personas de su alumnado y a dos familiares. Con los datos del cuestionario construye una matriz, la importa a un programa de análisis cuantitativo y elige calcular las frecuencias, estadísticos centrales, dos estadísticos de dispersión, y además que el programa realice los histogramas de algunos ítems. Presionando unas pocas veces el ratón y el teclado consigue unas cincuenta páginas de resultados que se pone a interpretar. Por el contrario con las entrevistas se enfrenta a otro proceso, utiliza un dictáfono digital para transcribir las entrevistas. Posteriormente utiliza un programa para ir eligiendo segmentos de texto a medida que los va leyendo, y después estos segmentos los va categorizando en un sistema que construye a partir de la propia lectura. Concluido el proceso de categorización y codificación hace alguna búsquedas boolenas entre el texto de las entrevistas y entre los códigos que ha creado, con la intención de ver si tiene algo de sentido algunas ideas que se le han ido ocurriendo mientras iba realizando la lectura y la relectura. Por último utiliza otro programa para representar en un mapa conceptual las relaciones que cree haber encontrado entre los categorías que ha ido construyendo.
Es evidente una cuestión, mientras que el software de análisis cuantitativo evita al investigador el tedioso trabajo de aplicar los procedimientos estadísticos repetitivos, y le permite centrarse en la tarea de interpretar, el software cualitativo solamente facilita la gestión de los documentos, pero el trabajo duro, la esencia del análisis, queda en manos del investigador. Esto ocurre, entre otras razones, porque el análisis cualitativo requiere de continuas decisiones y de interpretación en el mismo momento y el software actual no puede realizar esta toma de decisiones ni interpretar el significado del texto de forma efectiva. Aunque existen algunos prototipos que apuntan a superar este problema (por ejemplo meaningtool.com), actualmente el desarrollo tecnológico no es suficiente, de forma que el investigador debe seguir transcribiendo, leyendo y por su supuesto decidiendo.
El software para el análisis cualitativo de datos son potentes bases de datos que gestionan de forma operativa una importante cantidad de documentos de texto, catalogándolos y etiquetándolos según las categorías que el equipo de investigadores definen. Estos programas están especialmente diseñados para buscar palabras, segmentos de texto y también códigos a través de los documentos que almacenan o incluso a través de documentos que se encuentran vinculados entre sí en una red como internet. Inicialmente el trabajo de estos programas parece similar al de los procesadores de texto, por ejemplo, gestionan documentos y permiten buscar palabras o segmentos de texto. La diferencia está en que los programas de análisis son capaces de hacer búsquedas más complejas y sobre un elevado número de documentos. De esta forma, su potencia de búsqueda y gestión supera a los procesadores de texto habituales.
4 Utilidad del software
La utilización del software presenta algunas ventajas. Entre otras se pueden señalar las siguientes:
- Ayudan a gestionar eficientemente gran cantidad de documentos de texto.
- Ayudan a la categorización y codificación de los textos.
- Facilitan la búsqueda de texto y códigos en los documentos. Facilitan el análisis comparativo entre documentos.
- Los programas que integran módulos gráficos permiten la creación de diagramas, vinculándolos con los documentos.
La utilización del software también implica ciertos inconvenientes. Es cierto que estas “molestias” son cada vez menores, los programas se diseñan con interfaces más intuitivos, las aplicaciones se parecen entre sí en la forma de utilizarlos (en su interface), los sistemas de ayuda son más eficaces, y por supuesto, el usuario está más formado en la utilización de la tecnología. No obstante, como cualquier programa informático, la utilización de un paquete de análisis cualitativo conlleva algunas desventajas:
- Al crear los códigos y las categorías, el software “copia y pega” los segmentes de texto para indexarla. De esta forma cuando se pide una recuperación de un texto o de una categoría, el software presentará los segmentos descontexualizados del entorno del documento. Aunque existen programas como los que trabajan con la concordancia de un corpus (ver nota 1), que evitan este problema, la mayoría no superan estos inconvenientes.
- El precio. Por experiencia hemos comprobado que los programas que hacen la mayoría de las tareas de análisis cualitativo de forma más versátil, así como de manera que pueden utilizarse desde varios enfoques de investigación, suelen ser programas comerciales. El precio de estos programas depende del tipo y número de licencia oscilando entre los cuatrocientos a los dos mil euros.
- Otro de los problemas irremediables es la necesidad de aprender a utilizarlos. Aunque los programas son cada vez más intuitivos esto no evita el tener que dedicar algún tiempo a familiarizarse con el software. - Y el principal problema, reiteramos la idea, es que este tipo de programas no eximen del trabajo principal, la identificación de los segmentos de texto y su categorización. El trabajo de lectura, reflexión y segmentación del texto sigue siendo parte esencial del esfuerzo del equipo investigador.
5 Preparación de la información
El trabajo de análisis de la información comienza con la organización de todo el material y su transcripción. Actualmente la información no solamente se almacena en papel sino que suele registrarse en algún otro soporte, principalmente de tipo digital (archivos digitales de audio, de vídeo o de imagen). Al contrario de lo que podría pensarse, la tecnología no ha supuesto una reducción de la complejidad del sistema de registro, sino que por el contrario al diversificar, se ha complicado. El equipo de investigación se enfrenta ahora a la necesidad de grabar las entrevistas en audio o vídeo, tomar notas en papel, registrar las ocurrencias en tiempo real con descripciones de texto en un ordenador, etc. Tal es la situación que los investigadores implicados en estudios de corte cualitativo se enfrentan al problema de la integración de toda la información procedente de diversas sistemas de registro en un solo sistema comprensivo. Es decir, a las anteriores criterios como informantes, tiempo, entrevistadores, contextos, etc., se une ahora el soporte de registro, así como su integración en un sistema.
El software de análisis cualitativo no ha solucionado esta situación de forma óptima sino que de alguna forma lo único que hace, en la mayoría de los casos, es ofrecer al investigador la posibilidad de transcribir toda la información a texto a través de algún módulo, plug-in o extensión que facilite esta labor. Por lo tanto, ya no es simplemente copiar lo que se tenía en hojas y darle un aspecto legible, ahora se trata de describir lo que sucede en las escenas grabadas en vídeo, redactar los que se dice en las pistas de audio, o transformar en palabras las imágenes. El paso de unas notas manuscritas a una tipografía de imprenta facilita la lectura así como su copia y distribución entre todo el grupo de analistas, investigadores y agentes implicados. Sin embargo, la transcripción no solamente facilita la lectura, supone establecer un auténtico contexto de entendimiento común sobre el objeto de estudio.
En el análisis cualitativo, los datos siempre están mediados por la interpretación del investigador.. La información no está libre de los intereses del investigador. Cuando se realiza la transcripción, e incluso antes, cuando se están anotando ideas o se describen situaciones, los registros están afectados por las características personales e intereses de quien hace estas anotaciones. En investigación de corte cuantitativo, siguiendo con la perspectiva de objetividad, la mediación trata de controlarse con distintos procesos. Por ejemplo, es frecuente que quien administra un cuestionario solamente tenga una información básica de la investigación pero no conozca los pormenores de los objetivos a conseguir o hipótesis a comprobar. En investigación de corte cualitativo la situación no siempre es así, de tal forma que las mismas personas que realizan las anotaciones son agentes implicados en la totalidad de la investigación. En otras ocasiones por el contrario sí es posible recurrir a ese distanciamiento entre transcriptor e investigador. Por ejemplo, en el caso de entrevistas grabadas en audio, es frecuente y muy útil recurrir a redactores que transcriben literalmente la pista de audio. En cualquier caso, cuando se realiza investigación de tipo cualitativo la mediación de los agentes en los registros es un factor que debe asumirse como propio de la investigación, como un elemento consustancial a la propia investigación que determina qué información se tiene en cuenta, e incluso la determina en un proceso de interacción dialógico.
En algunos estudios la transcripción no es necesaria, bien por el contexto de estudio o por las exigencias de la propia investigación. Son poco habituales y generalmente recurren a artilugios tecnológicos que son capaces de generan las secuencias de datos necesarias para la investigación, volcándolas directamente a un ordenador. Por ejemplo, cuando se observa el comportamiento animal en una situación controlada, éste puede ser grabado y reducido a posiciones cartesianas y tiempos de duración que equipos de vídeo y software específico traslada en formato digital a un disco duro de un ordenador. Es el caso del programa Ethovisión XT, que permite la grabación del movimiento de animales de laboratorio, los sigue, traza líneas con sus movimientos, y determina patrones de localización.
En general, la experiencia apunta a que una hora de entrevista, es decir, una hora de grabación de audio, suele transcribirse en unas cinco horas (entre cuatro y seis horas). Generalmente esta labor no la hace el investigador sino que se delega en un transcriptor. Se trata un trabajo que debe ser recompensado de alguna forma, a través de un reconocimiento oficial (en el caso de que la tarea la asuma un colaborador de la investigación) o de un pago económico. Este reconocimiento institucional o económico, o ambos en su caso, es aconsejable porque favorece la motivación extrinseca de quien transcribe, lo que aumenta las garantías de recibir un trabajo bien hecho. En el caso de pagar una cantidad, los precios los fija el mismo mercado y son muy variables. Además, el coste económico depende de si se encarga el trabajo a una empresa, que suelen tener una serie de tarifas prefijadas, o se le encarga a un colaborador, para quien el pago supone más una gratificación económica que una facturación laboral. En ambos caso es habitual pagar por hora de grabación o por número de palabras. Así una hora de grabación puede oscilar entre los treinta y los sesenta euros. En el caso de palabra suele oscilar entre los nueve y los diecisiete céntimos de euro. Considerando que en una hora se suele transcribir un promedio de trescientas sesenta palabras el precio es similar en ambas modalidades de pago (ver nota 2).
El riesgo que se corre delegando esta parte del trabajo en otros es la posibilidad de recibir una transcripción de baja calidad, que no se ajuste a la información original, que no incorpore signos paralingüísticos básicos, como el aumento del tono de la persona entrevistada, balbuceos, etc. Si la transcripción no tiene un mínimo de calidad el resto del proceso quedará viciado. Esta calidad debe ser valorada por el equipo de investigación, puesto que depende en parte de las exigencias de la propia investigación. Para poder controlar esta calidad deben tenerse claro a priori, cuales son los elementos que no pueden perderse en la grabación. Por ejemplo, en un estudio etnográfico donde se pretende conocer cuales son los valores ambientales que imperan en el acerbo de una tribu amazónica, es básico plasmar literalmente las palabras del entrevistado, y además enriquecerlo con notas sobre algunos gestos, o entonaciones del mismo. Sin embargo, en el ejemplo los aspectos paralingüísticos tienen un valor secundario, lo importante es el mensaje, lo que cuenta, la narración. Por el contrario, cuando se está transcribiendo la entrevista realizada a una mujer que ha sufrido abusos sexuales, es básico recoger los momentos de bloqueo, los gestos que realiza, el tono de voz, los momentos de bajada emocional, etc. En este segundo caso los elementos paraligüísticos y el lenguaje no verbal deben quedar reflejados en la transcripción porque transmiten tanto o más que las palabras que dice. Para valorar la calidad se pueden seguir varias estrategias, una muy simple es revisar la transcripción al mismo tiempo que se oye o ve la grabación. Es aconsejable revisar sobre todo la mitad final de las transcripciones, puesto que es en ese momento donde el transcriptor puede decaer en su trabajo, cuando se encuentra más cansado de la grabación.
Tabla 3. Selección de notaciones de transcripción de Jefferson (1984)
Símbolo | Nombre | Uso |
---|---|---|
[texto] |
Corchetes | Indica el inicio y punto final de una superposición en el discurso. |
= |
Signo igual | Indica la ruptura y posterior continuación de un único enunciado. |
(# segundos) |
Tiempo de pausa | Indica el tiempo en segundos de una pausa. |
(.) |
Micropausa | Una breve pausa, generalmente menor a 0.2 segundos. |
. o ↓ |
Periodo o flecha hacia abajo | Indica caída del tono o entonación. |
? o ↑ |
Interacción o flecha hacia arriba | Indica aumento del tono o entonación. |
, |
Coma | Indica un aumento o bajada temporal de la entonación. |
- |
Guión | Indica un abrupto parón o interrupción del enunciado. |
>texto< |
Mayor que / menor que | Indica que el discurso entre los símbolos fue dicho, de forma deliberada, más rápido de lo normal para el hablante. |
<texto> |
Menor que / mayor que | Indica que el discurso entre los símbolos fue dicho, de forma deliberada, más despacio de lo normal para el hablante. |
° |
Grado | Indica susurro, reducción del volumen o del habla. |
TODO EN MAYÚSCULAS |
Texto en mayúsculas | Indica grito o aumento de volumen. |
_subrayado_ |
Subrayado | Indica que el hablante está enfatizando el discurso. |
::: |
Dos puntos | Indica que se prolonga el sonido. |
(hhh) |
Exhalación audible | - |
· ó (.hhh) |
Punto alto | Inhalación audible. |
(text) |
Paréntesis | Discurso poco claro o sobre el que se tiene dudas en la transcripción. |
((texto en itálica)) |
Doble paréntesis | Anotaciones de acciones no verbales. |
Entre los programas existentes actualmente la mayoría incorporan funciones para facilitar la transcripción. Algunos de ellos son especialmente útiles en el caso de transcribir grabaciones de audio y de vídeo, por ejemplo Transcriber, Annotation Transcriber, Express Scribe, Transana, F4 o ELAN.
6 Organización de la información
La gran cantidad de datos que se genera en una investigación cualitativa a partir de instrumentos de recogida de información como las entrevistas, diarios, registros anecdóticos, etc., debe ser filtrada y organizada dentro del marco de intereses de la propia investigación. El proceso de categorización y la codificación garantizan este filtrado, centrando el proceso de análisis en la información de interés.
La totalidad de programas de análisis cualitativo tienen entre sus funciones ayudar al proceso de categorización y codificación de los documentos. Se trata del elemento esencial de análisis y en este sentido el software se diseña para ser especialmente útil en esta tarea. De manera simple, aunque no demasiado rigurosa, cuando se categoriza, en realidad lo que se está haciendo es identificar el significado o tema del que trata cada segmento de texto (párrafo, frase, expresión, etc.). Para ello, hay que realizar una lectura reflexiva del documento transcrito, e ir identificado “segmentos” del texto que aportan un sentido, un significado, concepto o tema pertinente a la investigación. Este significado, tema o sentido atribuido está mediatizado (y determinado) por los objetivos e intereses de la investigación, los cuales deben quedar plasmados en la dimensionalización del proceso de análisis. La categorización se define por tanto, a partir de la dimensionalización:
“Las categorías, definidas según propiedades, son producto del proceso de dimensionalización que hace el investigador. Este proceso consiste en generar distinciones que se plasman en dimensiones y subdimensiones. Las categorías engloban información diversa, pero con cierta afinidad o denominador común” (Jones, D., Manzelli, H., y Pecheny. M.. p. 50).
Dos ideas importantes:
- El total de documentos transcritos deben filtrarse para identificar la información útil a la investigación.
- Este proceso se consigue durante la categorización y codificación.
La codificación consiste en asociar estas partes del texto a una etiqueta (el código) que se utilizará como representante de la idea o concepto. La construcción de los códigos además, supone una definición de los mismos, así como la atribución de ciertas funciones, entre ellas funciones descriptivas, teóricas o analíticas. Los códigos también se organizan entre sí, bien de forma plana o bien de forma jerárquica. En el primer caso los códigos no mantienen relaciones de dependencia entre sí, y se presentan todos a un mismo nivel, como un conjunto de elementos conceptualmente distantes. En el segundo caso los códigos mantienen relaciones entre sí, generalmente de dependencia. Se organizan entonces de forma jerárquica, ofreciendo la imagen clásica de árbol, donde unas estructuras dependen de otras y donde existen constructos de orden superior, más generales o abstractos que se desarrollan en constructos inferiores más específicos.
Los distintos programas de análisis determinan la forma en que se crean y gestionan los códigos. Establecen el sistema de relaciones entre sí, permiten o no la creación de colecciones de códigos, su modificación, la forma de almacenarlos, etc. En general, es aconsejable realizar la categorización y codificación con un mismo software puesto que la capacidad de exportación e importación entre unos y otros programas no es universal. Son pocos los programas que se “entienden” entre sí lo suficientemente bien como para garantizar una migración sin problemas de códigos y categorías. En este sentido es recomendable recurrir a programas que realicen las funciones de categorización y gestión de los códigos de forma adecuada a la naturaleza y exigencias de nuestra investigación. Los programas como Nudist, Aquad, o Atlas-ti entre otros son unas buenas alternativas, puesto que realizan todo el proceso de forma eficaz y con bastante flexibilidad. Otros programas, con menor soporte técnico detrás o con menor presencia en el mercado, pueden dar algún problema a la hora de compatibilizarlo con otros programas. Aplicaciones como Transana, Answer o RQDA entre otros suelen presentar este tipo de problemas cuando se necesita trasladar o exportar los sistemas de códigos o categorías a otros programas para realizar un análisis complementario.
Unas pocas aplicaciones son capaces de realizar una autocodificación, buscando palabras o frases por sí mismos. Este trabajo suele exigir la revisión del investigador porque aún es deficiente la flexibilidad idiomática del software (no suelen ser sensibles a variaciones de conjunciones, preposiciones, etc., que no afectan al significado pero sí a la redacción final del segmento de texto). Entre estos programas están MAXqda, Atlas-ti (aunque esta función es optativa) o Nvivo (que genera un nodo por defecto en las búsquedas).
Entre los diferentes programas disponibles, son especialmente útil para la codificación las aplicaciones Answer, CDC EZ-text, ESA, Kwalitan, QDA-Miner, Etnograph, Poly Analist, Wordstat y Xsight, entre otras. Otro elemento importante para organizar el trabajo son los “memos”. Los memos o memorandums son notas importantes que se redactan durante el proceso de análisis. Suelen utilizarse para recoger definiciones de las categorías y códigos, anotar ideas sobre el significados de segmentos de texto, relaciones entre códigos, hipótesis emergentes, etc. Son especialmente útiles cuando se trabaja en grupo, de forma que el equipo comparte las razones que han llevado a crear un código, los detalles sobre qué es el código y su relevancia, las ideas que surgen en los debates del equipo de investigadores, etc.
7 Extracción de conclusiones
Los procedimientos para extraer conclusiones no se pueden dar recetas generales aplicables en todos los casos. Esta situación se complica cuando se recurre a programas de análisis cualitativos porque no implementan todo el arsenal analítico disponible en investigación cualitativa.
Por esta razón, entre otras, es necesario asegurarse de que el diseño software que se elige es coherente con el enfoque metodológico que rige la investigación. A continuación se comentarán dos funciones básicas, por un lado las acciones de búsqueda y por otro las posibilidades de representación gráfica.
Búsqueda:
La función de búsqueda compleja es una característica básica de este tipo de software. En general, los paquetes informáticos de análisis cualitativo están programados para realizar búsqueda de palabras, frases, segmentos de texto y también de códigos de forma eficiente. La búsqueda que realizan estos programas abarca el conjunto de documentos, permitiendo identificar las fuentes de información, y los contextos documentados. La mayoría de programas permite también la búsqueda booleana de texto y códigos. Esto es especialmente útil para la extracción de conclusiones, por ejemplo, cuando si se desea comprobar si cada vez que aparece el código A la hace posteriormente el código B.
Algunos paquetes informáticos requieren complementos para aumentar sensiblemente las propiedades de búsqueda. Por ejemplo, no todos los programas cuentan la frecuencia de aparición de palabras o de cadenas de texto si no se instala un complemento. Software especialmente potente en la búsqueda de texto en grandes bases de documentos es TAMS y Zlab.
Software especialmente diseñado para el estudio de concordancia, que permite mostrar cada una de las palabras con relación a su contexto son Concordance PC, monoconc y monoconc PRO, Text Stat, Tlab y Wordnet.
Representación gráfica de modelos y redes:
Los programas cualitativos de análisis suelen tener recursos para representar gráficamente la relación entre conceptos, memos, documentos, códigos, etc. (Nudist, Nvivo, Atlas-ti, etc.). Estas herramientas facilitan la presentación de las hipótesis y teorías que emergen durante el proceso de análisis. Los gráficos que se generan se pueden utilizar para la construcción de teorías, y la de presentar los resultados. En el primer caso la representación gráfica permite debatir, discutir y reflexionar sobre las relaciones que se proponen entre conceptos, entre códigos, entre documentos, sobre el rol de cada fuente y documento dentro de los resultados. Son recursos que facilitan la construcción teórica porque permiten crear un gráfico e ir modificándolo a medida que avanza el análisis. Software que incluye herramientas que facilitan la construcción de teorías son Atlas-ti, HyperResearch, MaxQDA, N6, Nvivo, Qualrus, BEST. En este caso los gráficos son recursos para ofrecer la estructura de los resultados, ayudando al lector a comprender dichos resultados. Programas que se han mostrado especialmente útiles para representar mapas conceptuales y diagramas son Cmaptools, Decision Explorer, o Inspiration.
8 Software de análisis cualitativo: funciones
Tabla de Software para Análisis Cualitativo
Software | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
---|---|---|---|---|---|---|---|---|
Annotape | X | Comer. | ||||||
Answer | X | Free | ||||||
Atlas-ti | X | X | X | X | Comer. | |||
BEST | X | Comer. | ||||||
CDC EZ-text | X | Free | ||||||
Cmaptools | X | Free | ||||||
Concordance PC | X | Comer. | ||||||
Decision Explorer | X | Comer. | ||||||
ELAN | X | Free | ||||||
ESA | X | Free | ||||||
EthovisionXT | X | Comer. | ||||||
Etnograph | X | Comer. | ||||||
ExpressScribe | X | Free | ||||||
HyperResearch | X | Comer. | ||||||
HyperTranscribe | X | Comer. | ||||||
Inspiration | X | Comer. | ||||||
InterClipper | X | Comer. | ||||||
Kwalitan | X | Comer. | ||||||
MacShape | X | Free | ||||||
MaxQDA | X | Comer. | ||||||
Monoconc | X | Comer. | ||||||
N6 | X | X | X | X | Comer. | |||
Nvivo | X | X | X | X | Comer. | |||
ObserverXT | X | Comer. | ||||||
Poly Analist | X | Comer. | ||||||
QDA-Miner | X | X | X | X | Comer. | |||
Qualifiers | X | Comer. | ||||||
Qualrus | X | Comer. | ||||||
Sigstream | X | X | Comer. | |||||
TAMS | X | X | X | Free | ||||
Text Stat | X | Free | ||||||
Tlab | X | Comer. | ||||||
Transana | X | X | X | X | Comer. | |||
Wordnet | X | Comer. | ||||||
Wordstat | X | Comer. | ||||||
Xsight | X | X | X | X | Comer. | |||
ZyLAB | X | Comer. | ||||||
RQDA (R-project) | X | X | X | X | Free |
Leyenda de las columnas: 1: Búsqueda; 2: Codificar; 3: Teorizar; 4: Concordancia; 5: Diagramas; 6:Transcripción; 7: Vídeo y Audio; 8: Licencia
9 Referencias y notas
Elliot, J. (1990). La investigación-acción en educación. Madrid, Morata.
Jones, D., Manzelli, H., y Pecheny. M. (2007). La teoría fundamentada: su aplicación en una investigación sobre vida cotidiana con VIH/sida y con hepatitis C. En A. L. Kornblit, (Coord.), Metodología cualitativas: modelos y procedimientos de análisis . Buenos Aires: Biblos.
Fielding, N., y Lee, R.M. (1991). Using computers in qualitative research. Londres: Sage.
Stevens, S.S. (1951). Mathematics, measurement and psychophysics. En S.S. Stevens (Ed.), Handbook of experimental psychology. New York: John Wiley.
Jefferson, G. (1984). Transcripction notation. En J. Atkinson y J. Heritage (Eds.), Structures of social interaction . New York: Cambridge University Press.
Tójar, J.C. (2006). La investigación cualitativa: Comprender y actuar. Madrid: La Muralla.
Notas:
Una concordancia es una lista completa o parcial de las palabras usadas en un contexto (corpus).
Los datos de las tarifas por transcripción proceden de consultas realizadas directamente a personas que suelen realizar este trabajo y por tanto pueden variar de una zona a otra. Por esta misma razón no se aportan referencias, si bien con una simple búsqueda por internet se encuentran tarifas similares.