Me gustaría discutir los posibles riesgos o sesgos que pueden surgir al usar IA para codificar entrevistas o textos en investigaciones sociales o humanísticas.
Hola. No visualizo problemas éticos en utilizar IAG para codificar (entiendo que te referís a establecer categorías/subcategorías/temas) entrevistas o datos obtenidos de otras fuentes, como grupos focales. Sí hemos encontrado problemas, y muchos, con la calidad de los datos obtenidos. Si tenés categorías preestablecidas, IAG funciona razonablemente bien. Si dejás que IAG las defina, se arma lío, categoriza cualquier cosa. Hemos tenido mejores resultados haciendo primero una nube de palabras, seleccionando las palabras que mejor definen categorías/subcategorías y luego, con esos listados, someter el texto a IAG. DeepSeek anda mejor que ChatGPT para nosotros. Pero usar IAG no es diferente que usar los programas Atlas.ti, Nvivo, Excel de antes... solo cambia el instrumento de análisis.
Hello. I don’t see any ethical issues in using AI to code (I assume you mean establishing categories/subcategories/themes) interviews or data obtained from other sources, such as focus groups. However, we have encountered many problems with the quality of the generated data. If you have predefined categories, AI works reasonably well. But if you let the AI define them, it gets messy—it categorizes things randomly. We’ve had better results by first creating a word cloud, selecting the words that best define categories/subcategories, and then feeding those lists into the AI for text processing. DeepSeek works better for us than ChatGPT. But using AI is no different from using older programs like Atlas.ti, NVivo, or Excel… only the analysis tool has changed.
Si, debes cuidar que empresa realiza el análisis, generalmente son servicios en la nube, las empresas estadounidenses por ley deben compartir esos datos con su gobierno (roban tus datos), por ello las instituciones de Suecia no usan a empresas de estados unidos para el procesamiento de datos. Europa tiene en la lista de países no seguros en relación a los datos a este país (estado unidos). Mejor utiliza empresas de origen europeo que tienen una mayor regulación y protección de los datos.
Yes, you should be careful about which company performs the analysis. These are generally cloud services. American companies are required by law to share this data with their government (they steal your data). That's why Swedish institutions don't use American companies for data processing. Europe has this country (the United States) on its list of unsafe countries for data protection. It's better to use European companies, which have stricter regulations and data protection standards.