2 Matching Annotations
  1. Oct 2024
    1. Existen varias estrategias para gestionar la limitación de la ventana de contexto en los LLM. El peor escenario es que el LLM solo analice los datos hasta el límite de la ventana de contexto, ignorando el resto.

      En mi caso, no utilizaría inteligencia artificial para transcribir mis entrevistas, ya que si dejo que lo haga, podría apropiarse de mi trabajo de investigación hasta el momento de la defensa de mi tesis. Además, no lo haría porque hay personas en las comunidades que mezclan el español con su lengua originaria, y es posible que la IA no ofrezca traducciones precisas.

    2. Se presenta a la IA como alguien que hace todo el trabajo por nosotros, mientras que el investigador se limita a observar

      Pienso que la inteligencia artificial (IA) ha transformado la investigación al convertirse en un apoyo cognitivo importante. Su capacidad para analizar grandes volúmenes de datos rápidamente acelera este proceso. Sin embargo, como señala Susanne Friese en su artículo, es fundamental cuidar la ética profesional en su uso. Aunque la IA posee mucho conocimiento, considero que no lo sabe todo y debe emplearse como una herramienta complementaria.

      Yo dialogo diariamente con ChatGPT y he notado que, como menciona el artículo, va creando “códigos personalizados y precisos” de manera automática. A veces me sorprende, pero evito compartir toda mi información. Hay un riesgo de que esta tecnología influya en mi forma de pensar. Confiar únicamente en la IA para realizar investigaciones científicas no es ético ni saludable. Como dice Susanne, permitir que la IA haga todo puede violar los códigos de ética y afectar nuestro rendimiento académico. Esto podría llevar a la mediocridad y a una falta de respeto hacia la academia.