2,449 Matching Annotations
  1. Last 7 days
    1. Mapa mental

      El mapa mental debería tener ramas más detalladas que permitan recuperar y justificar información incluso meses después de lo que estamos haciendo

    2. Con las preguntas realizadas, la herramienta brindó respuestas acertadas y precisas uniendo la información de los diferentes documentos cargados. En este caso fue verosimil, pero con un gran volumen de información puede que no acierte de la misma forma.

      Sería conveniente agregar el hecho de que las respuestas dicen que apelan a más fuentes de las que realmente usan. Para ello es bueno tener la respuesta textual fuera de la captura de pantalla

    3. Buena presentación visual acompañada por capturas de pantalla. Sugeriría colocar respuestas textuales también, transcritas desde NucliaDB de manera que se puedan revisar en detalle fuera de la captura.

    1. If a problem is shared by only a handful of people, it's probably not worth programming a solution. Great Programmers Solve Important Problems The best programmers aren't simply the ones that write the best solutions: they're the ones that solve the best problems. The best programmers write kernels that allow billions of people to run other software, write highly reliable code that puts astronauts into space, write crawlers and indexers that organize the world's information. They make the right choices not only about how to solve a problem, but what problem to solve.

      Precisamente esa idea grandilocuente de qué son un programador y un problema valiosos es lo que deja desatendidas las soluciones que no suenan ambiciosas.

      Preferimos terraformar marte, que el depredado Amazonas.

      En contraste el software situado nos ha permitido resolver problemas para comunidades pequeñas en HackBo, nuestro hackerspace local o ayudando en la preservación lingüística en el Amazonas.

      En los ejemplos, todos los problemas a resolver parecen grandilocuentos: miles de millones de personas, la información del mundo, los astronáutas. Pareciera ser que el vecino, la familia, la comunidad local, están por fuera de esos imaginarios. Al menos pensar que los problemas importantes tan bien son cotidianos y pequeños es algo que vale la pena comunicar más asertiva y reiteradamente.

      Una de las cosas interesantes es que Breck cuenta en otra entrada como el software debería ahorrar tiempo a las personas, y allí revela una sensibilidad por los problemas pequeños, que le importaban a su familia y a él como niño/adolescente: tener 20 minutos más para poder jugar o ahorrarle esos 20 minutos a su familia a conectarse a internet.

      Lo que creo que necesitamos es una manera de expresar software para el cuidado: de la gente, del planeta, del tiempo. Algo como un software convivial, en las líneas de las tecnologías conviviales de Ivan Illich.

    2. Here's one rubric you can use to test whether a problem is worth solving:

      En la escala de simpleza, valor y alcance, diría que Grafoscopio, fue un problema que logró, en su contexto de una investigación doctoral que quería "escapar" de la academia, capturar las tres: era suficientemente simple, valioso y de alcance, para que importase en los contextos nacionales e internacionales en los que lo presenté y a los que me dió acceso. Sin embargo, es un proyecto de alcance limitado, con un problema compartido por un grupo específico de personas, cuyas necesidades no son resueltas adecuadamente por otras soluciones.

    1. Stripped out all the legacy "desktop UI" stuff, and replaced with a simpler "multi-page notebook" metaphor, then it could be massively more compelling to people. It then becomes a "personal notebook" for doing little sketches / experiments.If it's also "social" ie. has chat streams. Or is like the Smallest Federated Wiki. Or has other ways to sync sketches and pages etc. then this would be spectacular.And the Smalltalk VM / infrastructure is perfect for it.

      I have found the GT/Lepiter GUI pretty compelling for learners in my local hackerspace and in the information science department, both spaces where I'm a facilitator/teacher. It provides a pretty focused experience and it is stripped down of the overwhelming initial experience of the Pharo/Squeak GUI. It is not well suited for "classical Smalltalkers" though. as I have been talking with some of them and they find the DX too much specific and even cumbersome for some task they usually do (it has been not our case so far).

      In our last use case at the university, the students are creating a personal code repository in Fossil, with data narratives and they do a critic/annotated reading, using Hypothesis (this very technology), which is kind of a personal public wiki-like portfolio for data narratives. They put also the reading notes in their own repositories for the data stories I published previously where I introduce Smalltalk or and introduction to data representation and processing in Pharo.

      This could be another approach for wikis in the classroom, that is alterative to our use of interpersonal wikis with TiddlyWiki. At some point and in a pretty organic way, the idea would be to have all them integrated and powered by "context aware" and thematic chatbots (made in Pharo).

    2. What I think Smalltalk should look like in 2018 is something like JuPyter / iPython notebook. Or, at a pinch, HyperCard.I open "Smalltalk" (whether that's a browser-based version equivalent to Amber, LivelyKernel or Peter Fisk's Smalltalk Express, or a desktop version like PharoLanguage or SqueakLanguage), and what I see is a "smart notebook" type metaphor :A single page that takes up the whole window. To which I can start adding "cells" or "cards" containing either code or "literate" style documentation, or output produced by the code.You'd still have tools like the Class Browser etc. But they'd be integrated within the same UI. Ie. the class browser is just more "pages" in the notebook. There's no workspace or transcript because every page can have live code on it.This UI is immediate. And focused on "do something".

      On a similar approach, I created and actively developed from 2014 to 2019 Grafoscopio, which, while being inside Pharo and a companion of all other tools, was providing a computable outliner to do something: write computable and reproducible documents and bridge the gap between the IDE and the app for a more mature audience (a similar approach for children was previously tested in Squeak, with Etoys).

      This allowed me to write the Grafoscopio Manual (2016) inside Grafoscopio or to do with the community some hacktivist republishing, like we did with the Data Journalism Handbook (2018)

      Of course, being those initiatives from the so called "Global South" and being Grafoscopio my first "real program" ever, they lacked the visibility of Global North initiatives, like the ones you collected in Smart Academic Notebook, but they were acknowledge and appreciated in small/specialized communities, like the Pharo community.

      With the new GUI/DX provided by Lepiter (2021), I have been migrating the Grafoscopio Lessons from the previous half decade to this technology, with the MiniDocs package and I imagine Grafoscopio becoming more a software distribution on top of Pharo/GT, providing documentation and collaboration workflows and improved outlining with packages like TiddlyWikiPharo or the Brea decoupled CMS / static site generator.

      BTW, as I don't know how to add comments or suggest updates I wonder why this note is not updated with Lepiter as it provides pretty much the experience you were advocating for since 2018 and it is already in your wiki/bliki. Maybe it is just a matter of some wiki refactoring a links update.

  2. Aug 2024
    1. https://docutopia.sustrato.red/juliana:autonomo

      Es conveniente agregar a este documento no sólo los enlaces originales en HedgeDoc/Docutopia, sino también los enlaces al repositorio.

    2. Tutorial Markdown https://docutopia.sustrato.red/juliana:markdown

      Ten presente que las subsecciones suelen tener jerarquías continuas. Reemplaza:

      ### Tutorial ...

      por

      ## Tutorial ...

    1. HedgeDoc/Docutopia: Memorias hipertextuales de la clase en tiempo real Fossil: Repositorio con archivos Markdown, enlaces y exportaciones de mapas mentales Gtoolkit/Grafoscopio: con las narrativas interactivas de datos .

      Esto debería ser un listado de item:

      * HedgeDoc/Docutopia ... * Fossil ... * GToolkit/Grafoscopio ...

    1. temporalFile := myRepo / myFolder / myMarkdeepFile basename. temporalFile ensureDelete. myMarkdeepFile copyTo: temporalFile

      ¿Qué hacen estas tres líneas? Explicarlo una por una.

    2. Continuación codigo de Lepiter a Wiki-Repositorio Local

      cambiar la jerarquía. No tiene sentido un 0.1 debería ser 1.

      Sustituir

      ## Continuación...

      # Continuación...

    1. memories doWithIndex: [:item :index | item metadata at: 'title' put: 'Unidades semanticas, sesión ', index asString ].
    2. memories := sessions collect: [:session | doc := HedgeDoc new url: commonAddress, session asString; retrieveContents. ]

      Convertir en Phaor

    3. commonAddress := 'https://docutopia.sustrato.red/semanticas:24A' sessions := 1 to: 13 commonAddress := 'https://docutopia.sustrato.red/semanticas:24A' sessions := 1 to: 11 memories := sessions collect: [:session | doc := HedgeDoc new url: commonAddress, session asString; retrieveContents. ]

      Esto debería aparecer como un trozo de código y está como prosa.

    1. Anyway, Lepiter gives me the first step for a publishing tool. I have the document. Now I just need to export it.

      We, in the Grafoscopio community, had a similar need, but our approach was different: to keep the format simple and to use Pandoc combined with metasystem capabilities of Pharo (for example the fact that a document can be used to program itself) to address publishing formats and reproducibility.

      More details as comments ahead.

    2. From here, we can save these resources in a directory. My blog repository already has a directory for them, so we dump them there. aContext assembler assemble. LeExportResourcesDirectorySaver new resources: aContext resources; rootDirectory: FileLocator imageDirectory / 'pharo-local' / 'iceberg' / 'hellerve' / 'blog'; save

      This part can be pretty useful in the future. For the moment, we are using only external images as resources in our data narratives, because this makes easier to share and publish them in our almost real time publication workflow that bridges HedgeDoc with Fossil via Lepiter+MiniDocs.

      In the future I would like to make some results embeddable, particularly graphics produced by GtMondrian and hopefully Roassal as SVGs or even interactive JS objects in something like Echarts. We made some exporting test of web pages with interactive external resources that are produced from simple Lepiter+MiniDocs documents like this one.

      As Markdeep its showcasing its limits and bug fixing is slow to non-existent, we are exploring Pandoc options again, including external interactive objects, while enjoying Markdeep for simple documents/workflows.

    3. It looks a bit like a Mustache template, and it is already a HTML file.

      For the Brea static site generator / decoupled CMS, we used also Mustache.

      One of the advantages of Mustache is its "web preview" capabilities. So a page like this one:

      can be created with a template like this one:

      Following Brea's convention, template pages end in .mus.html, so they can be rendered like a normal web page.

    4. This page doesn’t link to any other pages, but our exporter doesn’t know that, so we need a bulder for these links. It will collect all the links we need for the page to work. In our case, it will only contain one page link: the one to the page we are working with.

      For the moment, linking to other pages is absent. What I get is something like [[Page title]] in our current Markdeep based exportation strategy, as you can see in one of my last examples.

      In the future I would like each page to store the (Fossil) repository where they are saved, so, each time the traversal algorithm that creates the Markdeep/Markdown page founds a page link, will ask that page to give its web link (relative or absolute, depending on if they're located or not in the same repository).

    5. It is a fun environment to write, think, and work in. Most of our new code gets its start as a Lepiter document, where we play in snippets and add views until the code base has formed, almost as if by accident. It is hard to describe, but I was thinking to do a live-coding session or two when I find the time.

      Agreed. Lepiter creates a pretty joyful experience for what I would call "story driven development" and/or data narratives. It makes pretty fluent the "story/argument first driven" workflow that we already had with Grafoscopio and that is pretty usual in social sciences and humanities, in contrast with the "test first driven" approach of development cultures.

      In my experience it is easier to introduce non developers to this kind of mindset, as we don't fight against some established tradition. Of course, different traditions can prioritize the starting/main point in differently.

    6. page := thisSnippet page

      Being able to refer from the code inside a document to the document that contains it, was also a need we felt with Grafoscopio. For that, We used thisNotebook, as can be seen in our republication of the Data Journalism Handbook (in Spanish) or in this screenshot from its repository:

      In our case, because my approach was not to convert the document inside Pharo, but leveraging Pandoc, thisNotebook allows us to provide PDF export options on the Markdown version of the notebook, to produce high quality PDFs besides the HTML export. As the screenshot above shows, the options where stored inside the document itself, internalizing what would be an external shell command, increasing document reproducibility also in the publication front (what added to the data reproducibility front). This was years before similar approaches like the Jupyter Book or Quarto and I still think that Pharo based tools can have leaner reproducible documentation workflows that their counterparts in other languages.

      Having support for similar ideas later in Lepiter, implemented by more experienced programmers, in the form thisSnippet and being able to compose it with page and database has been a real time saver in migrating some lessons from Grafoscopio to Lepiter.

    7. Most of my notes will be colored by my previous experience co-designing/developing Grafoscopio

    8. But unlike a notebook, I can easily extend it to house arbitrary snippet types, for instance YouTube video embeds.

      It depend of the kind of notebook or the meaning of arbitrary snippet types. For the case of Elixir's LiveBook, the smart cells provide customized content/UI, described in Elixir and easily versionable, as with the rest of the document, that uses another custom version of Markdown --lmd for Live(book) Markdown-- to deal with the pitfalls of storing notebooks in JSON.

    1. Twitter Scraper fue altamente eficaz en la recolección de datos textuales y en la identificación de patrones en los tweets. Su enfoque en el contenido textual permitió una cobertura integral de los temas discutidos, operando de manera eficiente y procesando grandes cantidades de datos textuales en un tiempo reducido.

      Decirlo de manera más clara.

    2. Su capacidad para manejar grandes volúmenes de datos permitió una recolección exhaustiva, y mostró un rendimiento eficiente en la ejecución de tareas de scraping, completando la recolección de datos en un tiempo razonable sin comprometer la calidad

      Decirlo con palabras más llanas y claras.

    3. Fue eficiente en obtener una gran cantidad de datos textuales, capturando un volumen significativo de tweets y hashtags, así como menciones y enlaces. Esta densidad de información textualmente rica facilitó la identificación de temas y sentimientos predominantes en el discurso político.

      Aclarar o quitar

    4. más exitosa

      con mayor calidad del dato

    5. Para garantizar que las conclusiones sean sólidas. Compararemos en profundidad las herramientas.

      Para garantizar que las conclusiones sean sólidas, compararemos ~~en profundidad~~ las herramientas.

    6. Este marco teórico proporciona la base conceptual para abordar los desafíos y oportunidades que presentan las nuevas tecnologías en el análisis de datos sociales y políticos.

      Borrar.

    7. , demuestra características innovadoras de suma significación en términos de procesos y resultados esperados, entendiendo estos últimos como el impacto de la investigación. Además
    8. Nuestro objetivo es gestionar y organizar el volumen masivo de datos textuales creados en X/Twitter durante la candidatura a la alcaldía de Bogotá en X/Twitter utilizando técnicas de minería de textos. Con el uso de esta metodología innovadora, podemos examinar las ramificaciones políticas de la difusión o proliferación de información en la plataforma y producir modelos útiles que pueden aplicarse para mejorar la toma de decisiones políticas y estratégicas.

      Este ya no es nuestro objetivo. Sino el de analizar la calidad de los microdatos extraídos.

    9. ==Se discuten los desafíos asociados con la reproducibilidad en la investigación de datos==. {{dónde}}
  3. Jul 2024
    1. Los microdatos

      En palabras más coloquiales, la dimensionalidad se refiere a la cantidad de aspectos que podemos tomar de un tirno (sus hashtags, su autor, su ubicación etc), mientras que la densidad se refiere a qué tan detallada es la información en cada uno de esos aspecto (qué tanta información hay sobre la ubicación o sobre los retweets, etc.).

      Si dimensionalidad y la densidad se representaran en histograma la primera daría cuenta de la cantidad de barras en el mismo y la segunda de la altura de las mismas, mostrando datos con distintos niveles de profundidad.

      SEPARAR PARRAFO

    2. de reflejar la calidad de los datos y abordar las deficiencias identificadas.

      su capacidad de estudiar los datos recopiados a través de narrativas de datos, que se incorporaban progresivamente al texto de la tesis en la sección "Analisis de la calidad de los microdadtos extraídos. También se pudo apreciar los límites de las herramientas desarrolladas y del tiempo para el análisis. Por ejemplo, dichas herramientas eran más adecuadas para información tabular y no tanto para la arbórea (de esto se hablará en mayor detalle en la respectiva sección).

    3. relacionados

      recolectados

    4. La distancia mantenida con los interesados en esta fase permitió un enfoque en la construcción de herramientas analíticas y reproducibilidad.

      El diseño de estas herramientas, se hizo de manera "cerrada", como suele ocurrir en esta fase, en este caso entre tutor y tesista., usando los criterios de sencillez y flexibilidad que se explican en la parte de invesgación reproducible.

      Este entorno de investigación reproducible no sólo incluyó elementos de publicación progresiva de la tesis, sino también de escritura colaborativa y recepción de realimentación entre tutor y tesista.

    5. , nos enfocamos en refinar la organización y calidad de los datos textuales obtenidos. Esta colaboración nos ayudó a comprender la calidad de los datos obtenidos, lo cual fue crucial para el desarrollo del producto final.

      cambiar

      Sin embargo, sí se procedió al diseño de prototipos ligeros, del tipo "qué pasaría sí". En este caso, la pregunta tenía que ver con "qué pasaría si, al hecer scrapping de datos, queremos revisar su calidad".

    6. Utilizamos herramientas de minería de datos para evaluar la calidad y el contenido de los datos textuales recopilados.

      Se revisaron las restricciones del API actuales; se indagó con académicos de centros de investigación si ellos continuaban teniendo acceso a pesar de ellas, encontrando que no; se revisaron alternativas de código abierto usando el API no oficial de Twitter/X, las cuales estaban cerrando su acceso y procedió a elegir el scrappign como método de adquisitión de datos, dado el caracter puntual de los mismos, es decir, referidos a perfies específicos en lugar de analisis de sentimientos, interacciones y otros que, por lo general, sí requieren acceso al API.

    7. comportamiento de los usuarios en relación con cada tweet.

      decir cuáles

    8. dimensionalidad y densidad, utilizando tres herramientas

      dimensionalida y densidad, es decir sobre cuántos aspectos del trino nos brinda información y la profundidad de la información por aspecto, usando para tres fuente (Apify, bla, bli) y un entorno de investigación reproducible configuragurado a medida del problema, incluyendo algoritmos para revisar la dimensionalidad y densidad de cada fuente de scrapping.

    9. de los candidatos

      extraídos

    10. La investigación reproducible es crucial para el análisis de datos, especialmente cuando se utilizan microdatos de plataformas como Twitter, donde los datos pueden estar sujetos a cambios rápidos. Según Card, Min y Serghiou en su libro “Open, Rigorous and Reproducible Research: A Practitioner’s Handbook”, el acceso limitado a los datos y a los códigos fuente es un gran desafío para la reproducibilidad, que es crucial para validar los hallazgos y promover la transparencia científica (Card et al., 2021). Una planificación cuidadosa y una documentación exhaustiva de los procedimientos de recopilación y análisis de datos son fundamentales para garantizar que otros investigadores puedan replicar los estudios o utilizar métodos comparables en diferentes contextos (Card et al., 2021). En este sentido, el libro de Kitzes, Turek y Deniz “The Practice of Reproducible Research” proporciona ejemplos prácticos de cómo implementar prácticas reproducibles mediante el uso de herramientas y plataformas que facilitan el intercambio de datos y códigos fuente. En esta tesis, que se centra en el análisis de microdatos de los perfiles de Twitter de candidatos políticos, es fundamental aplicar un enfoque replicable. Esto incluye el uso de metodologías abiertas, la publicación de conjuntos de datos anonimizados y el uso de buenas prácticas de análisis de datos, como la planificación de análisis de la visualización cuidadosa de los datos. La adopción de estas prácticas no solo mejora la calidad y la fiabilidad de la investigación, sino que también contribuye al avance del conocimiento en el campo del análisis de datos en redes sociales.

      Mover a la parte de investigación reproducible abajo.

    11. Considerar

      Sería adecuado considerar...

    12. Explorar l

      Se recomienda...

    13. una amplia gama

      varios

    14. y su enfoque en interacciones puede resultar en una menor eficiencia en la recolección de datos textuales y de media.

      Aclarar o borrar. Hablando de que exporta trinos individuales en lugar de grupales y su estrutura de datos arbórea en lugar de tabular dificulta la exploración y el análisis.

    15. En primer lugar, la recolección y análisis de datos es crucial. Un entorno reproducible permite que todos los pasos realizados durante la investigación sean claros y verificables, garantizando que otros investigadores puedan revisar y validar los resultados obtenidos. En segundo lugar, la replicabilidad es un aspecto esencial en la investigación. Este entorno reproducible asegura que los métodos y resultados puedan ser replicados por otros investigadores, lo que no solo valida nuestras conclusiones, sino que también facilita estudios comparativos.

      El entorno reproducible permitió efectivamente continuar el trabajo en distintos computadores, con diferentes sistemas operativos y sin permisos especiales sobre las máquinas, incluyendo computadores domésticos, del tutor, del estudiante y del LabCI. En sentido dicho entorno permitió configurar una "nube personal académica" de baja complejidad tecnológica, que permitía mayor autónomia en la escritura y colaboración fluida, más allá de lo que permiten otras formas de escritura en línea más convencionales.

    16. Esto permitió un análisis profundo de la participación de los usuarios, mostrando cómo interactúaban con el contenido y qué tipo de tweets generan más engagement.

      Aclarar o quitar.

    17. lo que permitió un análisis detallado de la presencia y el impacto visual en los tweets.

      Aclarar o quitar

    18. ofreciendo una cobertura integral de los contenidos publicados y permitiendo identificar patrones y tendencias en el discurso de los candidatos.

      Aclarar o quitar.

    19. datos extensos sobre las interacciones de los usuarios,

      mas datos sobre las interacciones de los usuarios con un trino particular. Es decir ...

    20. Esto permitió obtener una visión completa de los elementos presentes en los tweets y cómo se relacionan entre sí.

      Aclarar o quitar.

    21. Cluster (Agrupamiento):

      Control de versiones: técnica utilizada para permitir el rastreos de las distintas versiones históricas de un archivo y sincronizar el trabajo con ellos entre distintas máquinas y personas.

    22. El entorno de investigación reproducible para esta tesis

      El entorno de investigación reproducible para esta tesis articuló un conjunto de herramientas que permitiesen la instación de software, el control de versiones históricas del texto de la tesis y otros productos de investigación asociados, la colaboración con el tutor y la publicación de productos intermedios, así como la exploración de los datos extraídos y su visualización.

      Este conjunto de herramientas se eligió sobre otras que podrían funcionar para el mismo propósito, debido a su simpleza y flexibilidad. Por ejemplo, Fossil es más sencillo de usar que Git y tiene más funcionalidades integradas (ver "[Fossil versus Git)[https://www.fossil-scm.org/home/doc/trunk/www/fossil-v-git.wiki]" y Lepiter+Grafoscopio/MiniDocs provee mayor flexibilidad de personalización sobre otras herramientas más populares como los Jupyter Notebooks (Luna 2019, cap tal).

      La selección de herramientas se hizo de manera tal que la escritura de la tesis, incluyendo el análisis de datos se pudiera hacer en distintos computadores con diferentes capacidades de procesamiento, incluyendo computadores familiares (Mac y Windows), así como computadores del LabCI. Esto acarrea cierta redudancia de herramientas como Zettlr y LiteXL, ambos usados para escritra en Markdown, pero el segundo más ligero y que funciona en máquinas más modestas.

    23. Nota:

      quitar todos los elementos "Nota:" en los pie de imagen de cada captura de pantalla.

    24. sino también para problemas sociales, políticos y tecnológicos.

      , como el que acá tenemos, pues los prototipos progresivos, permiten comprender fenónomenos complejos. En el caso de esta investigación, dichos prototipos ocurrieron en la forma de narrativas de datos donde se combinaba prosa, código, datos y visualizaciones para explorar los datos extraídos de Twitter/X y comprender su naturaleza. También la tesis es un prototipo en sí misma, pues en sus diversas iteraciones y repositorios de código se encuentra una evoluación tanto de la escritura, como de las comprensiones que se alcanzaron con esta tesis.

    25. contextos específicos

      y diversos.

    26. exhaustivamente

      quitar

    27. Marco teórico

      Hacer una introducción al marco teórico breve.

      La siguiente sección presenta los elementos teóricos que se juntan en esta tesis, considerando aspectos legales del scrapping, la ciencia de datos computacional, el giro computacional del archivo la gobernanza de la información, el concepto de calidad del micro dato y los dos elementos que en esta tesis se definieron para la misma, dimensionalidad y densidad

    28. Nota: Existen cuatro categorías según el valor que el archivo digital ofrece a sus usuarios (Goudarouli, 2018a)

      Cambiar la leyenda de la gráfica por:

      Las cuatro categorías de valor que ofrece el archivo digital a sus usuarios (traducción propia al español de gráfica en inglés por Gourdarouli, 2018a)

    29. En las imágenes, es importante mejorar la resolución e indicar cuando se tratan de captura de pantalla propia.

      Ejp:

      Interfaz de captura de dato de APIFY. Captura propia

    30. El argumento del scrapping debe indicar que:

      • es una zona gris.
      • lo están usando compañias para alimentar modelos de IA
      • esta tesis permite que se pueda usar a pequeña escala, sin revelar información privada de los perfiles y mirando los metadatos más que los datos publicados.
      • Se respetan los terminos y condiciones de Twitter, pues no se replican los trinos individuales de manera pública, sino que se entrega información sobre la cantidad de datos scrapeados por terceros
    31. Contenido de cada capítulo

      Estos contenidos deben corresponder a la tabla de contenido. Parecieran hechos de manera automatizada, sin conocer los contenidos de la tesis. Sin una introducción clara, es imposible incorporar varios de los cambios solicitados por las jurados.

    32. Se define el tema de investigación y se reformulan los objetivos y preguntas de la investigación en respuesta a la evolución del acceso a API.

      No. En la introducción se presenta la investigación al lector.

    33. Como primer paso, planeamos utilizar la API de Twitter para recopilar datos completos sobre las interacciones de los candidatos a lo largo de sus campañas para la Alcaldía de Bogotá. Sin embargo, los cambios en las políticas de acceso a la API, como restricciones, han hecho reevaluar nuestra estrategia de recopilación de datos.

      Se debe redactar en pasado y en impersonal:

      planeamos ~> se planeó.

      han hecho revaluar ~> hicieron revaluar

      Y se debe mantener ese estilo a lo largo de toda la tesis.

    34. API (Interfaz de Programación de Aplicaciones): Conjunto de definiciones y protocolos que permiten la comunicación entre diferentes aplicaciones de software.

      El glosario es un capítulo en sí mismo y va antes de los anexos.

      La introducción debe tener un título en la versión HTML.

    35. Segmentación de Audiencia: Proceso de dividir a la audiencia en grupos más pequeños basados en características comunes para personalizar el contenido y mejorar la efectividad de la comunicación. Algoritmo: Conjunto de reglas y procedimientos definidos para resolver un problema o realizar una tarea específica.

      El glosario debe estar en estricto orden alfabético. No puede seguir, después de la "S", términos que empiezan por "A".

    36. Marco teórico

      Crear una subsección para cada uno de los conceptos importantes:

      • gobernanza y apertura de la información
      • Calidad del dato,
      • Microdatos,
      • Giro computacional,
      • investigación reproducible y su importancia.
    37. (Integra la adecuadacion al proposito y fidelidad para decir como se integro en la tesis con el fin de espicificar cual fue la calidad de los datos esperados y dar a co)

      Integrar la adecuación y la fidelidad como componentes de los elementos que tendremos en cuenta para la definición de calidad del microdato de Twitter. Es decir que miraremos cuánta información se puede extraer de distintos scrappers de Twitter y cómo esta tiene usos posibles en el análisis del discurso político

    38. La Wikipedia (2024)

      Ir a las fuentes primarias citadas en el artículo, dado que es una fuente secundaria.

    1. application of computational approaches to support archival practice for the creation and preservation of reliable and authentic records and archives, investigating the use of such methods for (partially) automating or assisting archival processes such as appraisal, description, and more.
    2. some theoretical and practical issues around infrastructure new needs in the education and training of future (digital) archivists

      Hacer la traducción de la siguiente gráfica.

    3. brought together experts from areas of theoretical and applied computer science with representatives of the archival problem-space to explore new ways of supporting archive professionals in managing and preserving records at scale.
    4. There are four categories for the value the digital archive offers its users

      Traducir esta página

    5. According to The National Archives’ Digital Strategy, digital technologies are one of the biggest challenges for archives, because of the changing nature of both the record and record-keeping practices. Digital is profoundly shaping what types of records are created and captured, and transforming how records are accessed and used. At the same time, the potential for applying computational methods and tools within archives and, more fundamentally, for integrating ‘computational thinking’ and ‘archival thinking’, has led some researchers to identify computational archival science as a new field of study.
  4. Jun 2024
    1. Estos fueron los métodos que usé para resolver el problema de la batería en mi portátil, que se manifestó una vez le actualicé la RAM de 8 a 24 GB (agregué 16 GB).

      Finalmente removí la batería externa, apliqué el reset de hardware y dejé el portátil con el cargador aplicado a la batería interna. Finalmente volvió a cargar.

    1. La siguiente narrativa de datos examina la información obtenida a través de la extracción de datos. El objetivo es evaluar el nivel de detalle proporcionado por diversas técnicas de “scrapping”, específicamente en relación con los tweets, utilizando los metadatos incluidos en cada conjunto de datos extraído.

      Definir los dos dimensiones del análisis que utilizamos para la investigación:

      1. Dimensionalidad: es decir la cantidad de datos, referidos a distintos elementos (autor, hashtags, media, etc) que proporciona la fuente de datos.

      2.Densidad: es decir la cantidad de datos que se encuentran agrupados por cada dimensión (cuánta información hay sobre el autor, cuánta sobre los hastags, cuanata sobre los media, etc).

    2. Anexos

      Antes de los anexos falta un apartado de recomendaciones:

      • ¿Cuáles fueron los límites de esta tesis? por ejemplo en el análisis de información arbórea, las dificultades respecto al cambio de términos y condiciones de Twittter/X? etc.
      • ¿Cómo se espera que las investigaciones futuras y/o el proceso formativo en pregrado pueda contribuir a superar las limitaciones pasada o construir con base en lo que se hizo acá?
    3. respuestas injustificadas, aún es necesario

      injustificadas, incorrectas o con justificaciones falsas. Aún es necesario...

    4. el estudio analizó la calidad de los microdatos recopilados de Twitter/X durante las elecciones para la Alcadia de Bogotá 2023, concentrándose en los perfiles de los candidatos Gustavo Bolívar y Juan Daniel Oviedo. Para extraer datos utilizando herraminetas como Apify, TwitterScraper y Squeaker

      Ampliar esta primera parte hablando de la calidad del dato extraído, no de la herramienta. Por ejemplo, indicar que se definieron dos tipos de variables para los datos: la dimensionalidad (cuántos datos vienen) y la densidad (cuando subdatos están incluidos en cada dato anterior) y desde allí indicar cuál de las tres fuentes tiene mayor densidad y dimensionalidad.

    5. Durante el proceso, se identifico que Squeaker era la herramienta más exitosa, dado que recopila una amplia variedad de propiedades de tweets y al mismo tiempo ofrece datos completos y relevantes. A pesar que la recopilación de datos fue más laboriosa y llevó más tiempo, la calidad fue superior. Apify ha demostrado su capacidad para recopilar automáticamente volúmenes masivos de datos, lo que facilita su categorización y recopilación. Sin embargo, en comparación con Squeaker, tenía ciertas deficiencias en la cantidad de datos recopilados. Finalmente, se determinó que TwitterScraper, que es sencillo, facil de usar y con la mejor interfaz, era el menos exitoso en la recopilación de datos, lo que implica limitaciones en la profundidad del estudio. El uso de estas herramientas proporcionó una variedad de datos para analizar los microdatos durante la campaña electoral, enfatizando la importancia de elegir la herramienta adecuada según las necesidades únicas de la investigación.

      Esta parte de acá puede mejor colocarse como conclusión 3, pues está referida a las herramientas de extracción.

    6. La metodología rigurosa y metódica utilizada en la selección y configuración de las herramientas, así como el diseño de criterios y filtros de búsqueda, permitieron un examen exhaustivo y consistente de los datos obtenidos. Esta investigación proporciona información vital sobre la dinámica de la campaña política, así como sobre la calidad de los datos encontrados en los tweets.

      Esta parte vuelve y dice de otra manera lo dicho ya antes. Es mejor reemplazar esta conclusión por otra que hable de lo que se quería lograr en el objetivo específico 2.

    7. Además, se ha construido y documentado rigurosamente una metodología, comenzando con la configuración inicial del entorno y terminando con el análisis de datos. Esta extensa documentación del procedimiento de configuración del entorno reproducible garantiza que los resultados obtenidos sean replicables y consistentes, lo que contribuye a la solidez y confiabilidad del estudio.

      Esto debería hacer parte de la conclusión 2, que está referida al objetivo específico del entorno de investigación reproducible.

      No es necesario indicar repetidamente que la investigación o su metodología son rigurosas. Si ya se dijo antes, se puede omitir su mención posterior.

    8. que inspire

      que, el autor espera, inspire y oriente ...

    9. exhaustivo y extenso de mucho

      puntual de algunos

    10. transparencia y verificabilidad de nuestro estudio

      ¿cómo ocurrió esto?

    11. Cada una de estas tecnologías ha sido cuidadosamente elegidas y diseñadas para mejorar cada etapa del proceso, desde la recopilación de datos hasta el análisis final.

      esto ya lo dijiste en el párrafo inmediatamente anterior

    12. del estudio

      de los estudios posibles que se puedan hacer con datos extraídos con esta herramienta.

    13. menos exitoso

      más limitado

    14. omo

      Como

    15. Esta técnica nos permitió acceder y estudiar cada aspecto de forma separada y sistemática, permitiendo una investigación más profunda de la comunicación online.

      Esto no se hizo. Sugiero cambiar por

      Con esta herramienta se pudo empezar a visualizar los datos arbóreos extraídos de Squawker y efectivamente constatar en una aproximación informal, que se trata de uno de los scrappers de mayor calidad de los acá estudiandos. Sin embargo, los límites de tiempo y conocimientos sólo permitieron adelantar cómo importar datos y empezar con algunas visualizaciones. Un estudio posterior de dicha fuente de datos se deja para las recomedanciones (como se muestra en la sección respectiva).

    16. extraer y aplanar

      analizar

    17. examinar

      producir

    18. En este ejemplo, creamos un diccionario llamado dataDensity que simula la densidad de datos para diferentes dimensiones. Comenzamos creando un nuevo diccionario vacío y luego agregamos pares clave-valor al diccionario utilizando el operador at:put:. Cada clave representa una dimensión y cada valor representa la densidad de datos para esa dimensión. Los valores asignados son arbitrarios y se ajustan para ilustrar la densidad de datos para cuatro dimensiones (‘Dimensión1’, ‘Dimensión2’, ‘Dimensión3’ y ‘Dimensión4’). Una vez que hemos poblado el diccionario con estos valores, lo retornamos. En resumen, este ejemplo demuestra cómo usar un diccionario en Pharo Smalltalk para organizar datos y acceder a ellos mediante claves asociadas con valores específicos. Los diccionarios son herramientas valiosas para la gestión eficiente de datos en aplicaciones

      Esta parte y sus gráficas deberían ir en los anexos.

    19. ——# Análisis de la calidad de los microdatos extraídos

      Esto debería ser una sección

    20. Zttlr:

      Zettlr

    21. Figura 21: Repositorio publico

      Repositorio público con la diferencia entre dos versiones sucesivas de la tesis.

    22. Figura 1: Hypothesis

      Explicar en el pie de figura cómo se está usando la herramienta. Por ejemplo:

      Hypothesis, siendo empleada para los comentarios y corrección por parte del tutor y la realimentación al estudiante.

      No todas las imágenes pueden empezar por "Figura 1", sino que su numeración debe ser sucesiva, teniendo en cuenta el número del capítulo (ejemplo figura 1.1., figura 2.1) o simplemente un sucesivo (figura 1, figura 2, etc).

    23. Figura 1: Eisvogel Templane

      Este pie de figura no corresponde a esta gráfica.

    24. Figura 1: Scoop

      Una mejor captura de pantalla de Pandoc debería mostrar cómo se pasa de un formato a otro. Por ejemplo de Markdown a PDF.

    25. ## Pandoc

      Convertirlo a sección

    26. Figura 1: WindTerm

      Explicar cómo se usa la herramienta en la captura de pantalla, bien sea en el pie de la figura o en un breve párrafo justo después de ella.

    27. Ahora se instala MiniDocs. Ahora a descargar MiniDocs que es un sistema para mejorar las capacidades de documentación de Lepiter.

      Editar estos dos párrafos.

    28. ## Grafoscopio

      Esto debería ser un título.

    29. Figura 1: Uso de ChiselApp

      Explicar esta gráfica en el párrafo anterior, como se indicó en la anotación del párrafo anterior.

    30. te permite

      Es mejor no tutear en la redacción para hacerla más formal durante la tesis.

    31. Scoop

      Cada herramienta debería estar resaltada en negrilla para mejorar la legibilidad

    32. # Desplegando un entorno de investigación reproducible

      Esto de acá debería ser una sección

    33. varias fas

      varias fases

      Agregar el pie de imágen, indicando que se tomó de Luna 2019, basado en Leinonen 2008.

    34. claidad

      calidad

    35. En este estudio, se destaca la importancia de la investigación reproducible y la narrativa de datos para garantizar la transparencia, verificabilidad y validez de los hallazgos. La reproducibilidad permite a otros investigadores verificar y validar los resultados, fortaleciendo la credibilidad de los estudios. La narrativa de datos proporciona un marco coherente para interpretar los resultados y comunicarlos efectivamente.

      Acá vale la pena ampliar un poco el párrafo y al menos agregar una referencia bibliográfica que sustente lo dicho. Las dos cosas se pueden resolver incorporando elementos de:

      http://www.practicereproducibleresearch.org/

      Por ejemplo de los capítulos de prefacio, introducción, así como el significado más preciso de replicabilidad y reproduciblidad computacional del capítulo de lecciones aprendidas

  5. May 2024
    1. Gráfico representativo de los datos

      Mejorar explicación. Ver comentario en gráfica anterior

    2. Gráfico representativo de los datos

      Explicar mejor qué se está representando: Cantidad de datos agrupados contra tipo de dato (no es "Nombre del ítem").

    3. Evaluaremos varias características de los datos obtenidos, como la dimensionalidad de los tweets, la densidad de los datos y la frecuencia de los hashtags, para obtener información valiosa sobre la calidad de los microdatos.

      Sólo evaluamos dimensionalidad (cuántos datos hay) y densidad (que tan profundos son los datos, es decir cuántos datos agrupan). Nunca evaluamos la frecuencia de los trinos. Vale la pena definir acá qué es cada uno: dimensionalidad y densidad, y luego sí pasar a la narrativa como tal.

    4. Diccionarios Pharo Smalltalk Los diccionarios Pharo Smalltalk son estructuras de datos que le permite emparejar de forma rápida y eficaz claves distintas con valores coincidentes. Los diccionarios Pharo emplean una tabla hash interna para almacenar entradas y están diseñados para ofrecer acceso rápido a la información. Además, los diccionarios Pharo permiten almacenar en ellos cualquier tipo de datos, incluidas claves y valores. Esto le permite una gran flexibilidad al utilizar Pharo para trabajar con varios tipos y estructuras de datos. Los diccionarios proporcionan una variedad de operaciones fundamentales, incluidos métodos para recorrer entradas del diccionario, además de agregar, eliminar y recuperar elementos. Los diccionarios se utilizan ampliamente en Pharo Smalltalk para una amplia gama de propósitos, incluida la organización de datos, la implementación de algoritmos efectivos y la gestión de asociaciones clave-valor en aplicaciones complejas. Esto se debe a su adaptabilidad y eficiencia.

      Enviar a los anexos.

    5. velocidad, capacidad de recopilar datos en tiempo real y capacidad de superar cualquier limitación potencial de la plataforma de redes sociales.

      Nunca evaluamos la velocidad y de hecho la tabla comparativa no habla al respecto de nada de eso. Tampoco evaluamos la posibilidad de superar "cualquier limitación" en generar evitar el uso de absolutismos (nunca, siempre, cualquier, etc).

    6. J.son

      JSON

    7. Squawker durante el estudio para el trabajo de guardo. La falta de una función “Batch Save” para explorar perfiles. Se tomó la decisión de abrir una línea de comunicación con los desarrolladores vía GitHub por medio de los comentarios de dicho aplicativo.

      Retomar desde acá la narrativa sobre el análisis que se hizo con Squawker.

    8. Tesis pregrado Felipe Vera: FileLocator alias tutor

      Pasar a los anexos

    9. utilizarán

      utlizaron

    10. Para crear un entorno de investigación reproducible en una computadora, con sistemas operativos Windows GNU/Linux o MacOS, se instalan en ella los recursos necesarios para construir dicho entorno.

      Cambiar por:

      Si bien hemos mostrado, en las secciones previas las herramientas individuales y sus usos en esta investigación. Este apartado se encarga de mostrar los flujos de trabajo que conectaron las herramientas.

    11. Hypothesis

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis. En particular, mostrar cómo se uso para gestionar comentarios de mejoras sobre la tesis.

    12. Pandoc

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis. Por ejemplo, indicando que se usó para convertir de formato Markdown a HTML y PDF, aplicando diferentes plantillas para cada formato.

    13. Zettlr

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis.

    14. WindTerm

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis.

    15. Grafoscopio es una herramienta interactiva flexible de visualización de datos y documentación.

      Agregar captura de pantalla de Grafoscopio:

    16. ExoRepo es una utilidad que facilita la instalación de repositorios hospedados en infraestructuras de código autónomas.

      Esta frase debería ir arriba, antes del código de la instalación. También se debería indicar dónde se está ejecutando el código de la instalación.

    17. Pharo ofrece un entorno interactivo y un sistema de desarrollo integrado, lo que facilita el diseño de aplicaciones complejas. GT y Pharo trabajan juntos para brindar una experiencia de desarrollo única y altamente personalizada.

      Agregar gráfica y explicación breve de cómo se usó en el contexto de la tesis, siguiendo el ejemplo de Fossil.

      Glamorous Toolkit usado para analizar trinos

    18. ChiselApp es una plataforma de alojamiento y lanzamiento de proyectos que ejecuta Fossil SCM como sistema de control de versiones. Permite a los usuarios realizar un seguimiento de los cambios en los archivos, comunicar el progreso y la evolución del trabajo académico y guardar los datos recopilados mediante herramientas de scraping. ChiselApp te permite crear repositorios públicos y privados, lo que facilita el mantenimiento y la colaboración en proyectos académicos.

      Como había dicho ya en las sesiones presenciales, es importante agregar una pantalla de cada aplicación en el contexto en el que fue usada. Por ejemplo, para el caso de Fossil, la imagen podría ser

      Línea de tiempo con ramas del tutor y tronco del repositorio

      Fossil fue utilizado para alojar los distintos archivos que configuran el escrito de la tesis, incluyendo tanto la prosa como las narrativas de datos, en un repositorio público y otro privado se creó para los datos extraídos con los distintos métodos. Así mismo, se empleó para publicar las versiones en borrador en distintos formatos (HTML y PDF) y para hacer comentarios para control de avances, mejoras y correcciones.

      La gráfica de arriba muestra el uso de Fossil y las ramas del Tutor y el tronco que permitían trabajar de manera colaborativa en los procesos de acompañamiento de la tesis.

    19. Publicando reproducible: Como exportamos el documento desde Markdown a HTML y PDF y cómo se hacen con Fossil.

      Después del listado breve, indicar que se mostrará en detalle cada una de las herramientas y cómo fueron instaladas/utilizadas durante la tesis.

    20. siguientes elementos

      Agregar una frase corta al frente de cada uno indicando qué hacen. Por ejemplo:

      1. Scoop: Gestor de instalación de software libre, de código abierto y/o libre distribución.
      2. Fossil y ChiselApp: Sistema de control de versiones y publicación de borradores de la tesis y sus narrativas de datos.

      y así suscesivamente. De esta manera el lector no se queda con un listado de nombres que no sabe qué significan.

    21. Luna, 2023

      Luna, 2019, citando a Leinonen (2008).

    22. Los resultados de la extracción de datos en Twitter/X se entregaron a las partes interesadas para su aprobación, lo que permitió realizar evaluaciones adicionales dentro de los parámetros del proyecto.

      Se iteró en los prototipos, mirando qué tanto ellos podían efectivamente dar cuenta de la calidad de los datos y qué elemento algorítmicos completaban la narrativa o donde estaban las limitaciones, bien en los conocimientos para mejorar los analisis o bien en las herramientas para dicho analisis.

    23. Luna, 2023

      Luna, 2019, citando a Leinonen (2008).

    24. Utilizando técnicas de minería de datos para descubrir patrones y tendencias de comportamiento, generando y organizando el volumen masivo de datos textuales creados en Twitter/X durante las candidaturas a la alcaldía de Bogotá en cooperación con las partes interesadas.

      Esta parte no se distingue mucho de la anterior. En realidad, acá no hicimos diseño participativo, sino que pasamos directamente a la fase de diseño de producto, pues no sometimos nuestros prototipos a ninguna pluralidad de personas, por ejemplo a una comunidad.

    25. Luna, 2023

      Si se está citando mi tesis doctoral, debería ser (Luna, 2019).

    26. Luna, 2023

      Si se está citando mi tesis doctoral, debería ser (Luna, 2019).

    27. Imagen representativa de la metodológia

      Se debe indicar que esta imagen fue tomada de mi tesis o de mi microwiki.

    28. Este proyecto se guía por una metodología de diseño basada en investigación que se caracteriza por la creación de prototipos continuos. Este enfoque, en línea con el pensamiento de diseño y las epistemologías diseñistas, reconoce el diseño como un conocimiento en red, capaz de incorporar métodos cuantitativos, cualitativos, etnográficos e investigación acción participativa.

      Es importantísimo decir que esta parte del texto es tomada casi literalmente de mi wiki, citando la fuente e indicando que dicho contenido fue cedido al dominio público por mí.

    29. La mineria de datos es importante para sacar conclusiones interesantes a partir de conjuntos de datos masivos, que se aplica con gran éxito al analizar redes sociales como Twitter/X. Durante este proceso se recopilan y procesan cantidades masivas de datos generados por los usuarios, como tweets, encontrando patrones y tendencias (Blázquez., 2019) . La minería de datos se utiliza para detección de tendencias en tiempo real y el análisis de los tweets (Blázquez., 2019). Con el uso de esta técnica, las personas pueden clasificarse en varias categorías según sus intereses y comportamientos. También se pueden identificar eventos cruciales o emergencias.

      Si bien usamos minería de datos para extraer los datos, lo clave no fue su tamaño, sino su calidad. Este párrafo debería expresarlo. También es necesario plantear elementos de ciencia abierta y reproducible en los tipos de estudios que estamos realizando, pues es una parte importante del problema y de los objetivos específicos y no hay nada al respecto en la justificación.

    30. Su rival, político

      integrar en párrafo anterior

    31. esta empresa

      esta empresa ~~> esta empresa,

    32. podría tener

      ~~podría tener~~ un impacto en los investigadores y desarrolladores ~> <ins>tuvo</ins> un impacto en los investigadores y desarrolladores (por ejemplo, extendió el tiempo de esta tesis más allá de lo habitual).

    33. Este estudio se centra en examinar cómo las redes sociales han afectado las campañas políticas, particularmente las de las elecciones regionales del año 2023 en Bogotá. La información política que Gustavo Bolívar y Juan Daniel Oviedo publicaron en Twitter (ahora denominada ”X” y que a lo largo de esta tesis se denominará Twitter/X) a lo largo de su campaña será analizada mediante minería de textos.

      Si bien hicimos minería de texto, no fue para examinar cómo las redes sociales afectaban campañas, sino que nos enfocamos en la calidad de los datos extraídos de Twitter.

    34. Algunas de estas cortes se han destacado a nivel mundial como precursoras en el uso de tales medios. En cambio, las menos influyentes muestran gran dispersión en torno al nivel de actividad. Asimismo, exploramos de manera preliminar la relación entre el nivel de confianza en los poderes judiciales y la intensidad del uso e influencia de las cortes en las redes
    35. Las redes sociales asentadas en internet plantean opciones, pero sobre todo desafíos, a la política convencional. En este artículo se discute el concepto de red 2.0, se describe el auge de las redes sociales y se apuntan algunas de sus limitaciones, en especial para promover la deliberación de ideas.
    36. Con la revolución televisiva y la llegada de las redes sociales, la comunicación política ha experimentado una gran transformación, tanto en España como en el resto del mundo. TikTok ha sido la última plataforma en irrumpir en el tablero político, mediático y electoral. Estos trabajos exploran el papel que TikTok juega en la comunicación política actual, así como las posibilidades que brinda a la llamada espectacularización y el grado de profesionalización con el que trabajan las distintas formaciones (Fernández, 2022)

      Esta parte fue tomada casi que literalmente de https://www.redalyc.org/journal/4761/476170165011/ sin ninguna atribución.

    37. Además, ayuda en la creación de planes y políticas destinadas a cerrar la brecha en la generación, accesibilidad y apertura de la información política.

      ¿Cómo el análisis de la calidad de los micro-datos extraídos ayuda en esto?

    38. mejor cómo se distribuye y consume la información en la plataforma

      Esto no se analizó.

    39. la investigación examina cómo la información política sobre X/Twitter afecta la participación de los ciudadanos, la transparencia y la capacidad de tomar decisiones bien informadas

      Esto no fue lo que se examinó. Corregir de acuerdo a lo que sí se hizo.

    40. de cuánta información

      Nunca analizamos cuánta información se podía extraer, sino cual era su calidad.

    41. Al analizar el impacto político en X/Twitter utilizando la minería de textos como herramienta, el proyecto ofrece un enfoque novedoso al tema en cuestión. Esto nos permite comprender de una manera más precisa y profunda cómo la difusión de información impacta los procedimientos electorales y la opinión pública a lo largo de la campaña a la alcaldía de Bogotá.

      Esto no fue lo que se analizó. Nunca revisamos ni impacto, ni difusión de información.

    42. la toma de decisiones bien informada.

      [...] informada. Todo lo anterior inicia en un pequeño e importante paso: poder extraer información de Twitter/X por distintos medios y poder analizar su calidad.

    43. X/Twitter
    44. X/Twitter
    45. X/Twitter
    46. X/Twitter
    47. X/Twitter
    48. X/Twitter

      Twitter/X

    49. técnicas

      ~~tecnicas~~ ~> fuentes

    50. Twitter

      Twitter/X

    51. Un político, autor de Colombia

      integrar en párrafo anterior

    52. X/Twitter
    53. X/Twitter

      Usar siempre Twitter/X y no una veces así y otras al contrario.

    1. documentLinks do: [:link | thisSnippet database importDocumentFrom: link ].

      smalltalk myPages := documentLinks collect: [:link | thisSnippet database importDocumentFrom: link ]. En lugar de do: es un collect: para que la nueva colección quede asignada a la variable myPages. Una vez esto funcione, el resto de las intrucciones permite exportar sólo las nuevas páginas, en lugar de todas.

    1. documentLinks

      ~~documentLinks~~ ~> myPages

      Con este nuevo iterador, es posible trabajar con la colección deseada:

      Una vez se trabaja con la colección correcta, el resto del código funciona y las páginas se pueden exportar.

    2. documentLinks collect: [:link | thisSnippet database importDocumentFrom: link ].

      Este resultado hay que reusarlo, asignándolo a una variable.

      smalltalk myPages := documentLinks collect: [:link | thisSnippet database importDocumentFrom: link ].

    3. Falla frecuentemente pasa cuando utilizo la variable asMardeepFile para resolverlo normalmente borro todas las sesiones descargadas y vuelvo hacerlo pero hoy aun así no funciona.

      Enviaste el mensaje asMarkdeepFile a un String (cadena de texto en lugar de a una página de Lepiter. Tendrías que haber enviando el mensaje a una Named Page.

    1. Problemática

      En la problemática falta, hacia el final, uno o dos párrafos referido a los temas de investigación reproducible y algo de narrativas de datos, para juntarlos a la formulación del problema.

    2. ¿Cuál es el impacto político de la proliferación o difusión de información de Gustavo Bolívar y Juan Daniel Oviedo en Twitter (ahora llamado “X”) durante su postulación a la alcaldía de Bogotá en 2023 a través de la minería de texto?

      Esta pregunta ya no es la que se está abordando. Debería cerrar más bien en la línea de:

      Dado que ha habido un cierre en el acceso para investigadores al API de Twitter/X, pero este espacio es aún ampliamente influyente en la comunicación política y ase pueden adquirir datos de perfiles específicos mediante la técnica de scrapping (extracción o "raspado" de datos), esta tesis busca explorar ¿cuál es la calidad del microdato que se puede extraer de esa red social mediante distintas técnicas?

      Esto como primer insumo para continuar haciendo el análisis de los datos tomados de esta red mediante la técnica de scrapping, entendiendo la calidad de los mismos, para que su posterior análisis aliente nuevas técnicas investigativas y formas de participación ciudadana.

    3. como sujetos de la investigación.

      porque ...

    4. son

      eran

      Cambiar los tiempos verbales para que correspondan con una formulación en el pasado.

    5. Cada candidato posee los conocimientos, talentos y experiencia necesarios para mejorar la ciudad de la ciudad capitalina (Noticiasrcn, 2023)

      Esta es una opinión, expresada por un medio periodístico, no un hecho. No sabemos si tienen o no esos requisitos de mejora. Cambiar la redacción.

    6. pública

      pública.

    7. gratuita

      al menos para bajos volúmenes de datos.

    8. los desarrolladores

      e investigadores

    9. cobrará

      cobró

    10. X/Twitter

      No revertir la sigla. Siempre Twitter/X y no al contrario.

    11. /x

      Twitter/X

      Siempre usar la mayúscula para referirse a esta red social.

    12. con la toma de decisiones y la formulación de políticas para fomentar una participación política transparente.

      a comprender los datos del discurso emitido por candidatos como manera de formentar maneras de participación política novedosas en contextos discursivos mediados digitalmente, que constituyen buena parte de la manera en que ciudadanos y candidatos se comunican contemporáneamente.

    13. cómo se organiza, maneja y consume el material

      cuánta información podemos extraer de los microdatos del discurso político en contextos digitales, particularmente en Twitter/X.

    14. y procesamiento de lenguaje natural
    15. ahora denominada ”X”

      y que a lo largo de esta tesis se denominará Twitter/X

  6. Apr 2024
    1. myBoard show: i*2 "asString"; cr

      Lo que quiero hacer con ese elmento en particular

    2. :i

      elemento de la colección donde estoy ubicado dentro de la colección

    3. do:

      mensaje: qué es lo que quiero hacer en esa colección.

      Otros mensajes son:

      • collect: coleccionar elementos que satisfagan una condición.
      • reject: rechazar elementos que satisfagan una condición.
      • select: seleccionar elementos que satisfagan una condición.
      • `detect: detectar el primer elemento que satisfaga una condición.
      • doWithIndex: hacer algo con los elementos teniendo en cuenta también la posición del elemento en el arreglo.
    4. 1 to: 10

      colección: la secuencia de objetos que quiero recorrer.

    1. thisSnippet database importDocumentFrom: link

      intrucción*: qué quiero hacer con cada elemento donde estoy ubicado (y eventualmente con su índice).

    2. :link

      en cual elemento de la colección estoy ubicado. Y eventualmente, su índice, es decir su posición dentro de la colección.

    3. documentLinks

      Esta es una colección de informacón (usualmente son arreglos)..

    4. do:

      El mensaje: Qué quiero hacer con esta colección.

      Otros mensajes pueden ser:

      • do: hacer con los elementos.
      • doWithIndex: hacer con los elementos, teniendo en cuenta su posición.
      • collect: coleccionar elementos.
      • select: coleccionar elementos.
      • detect: detectar el primer elemento que satisfaga una condición.
      • reject: rechazar elementos.
    1. #('hello' 'World') at: 2 put: 'Pharo'; yourself.

      Esta versión no genera error:

      smalltalk myArray := #('hello' 'World'). myArray asOrderedCollection at: 2 put: 'Pharo'; yourself.

    2. Pruebe ALT-p (o CMD-p o CTRL-p) en las siguientes expresiones:

      Tres maneras de pensarnos las maneras de trabajar con código:

      • Impresión: muestreme el resultado como una cadena de texto.
      • Ejecución¨: Ejecute el resultado, pero no me muestre nada.
      • Inspección: Muestreme el resultado y una vista especializada de ese objeto
    3. ¿Que significa Character allByteCharacters? y cual es su función para que casos se utiliza?

      Esto se usa para conocer todos los signos de caracteres que se pueden usar en una impresión. Los recuadros con una "X" por dentro, quiere decir que ese caracter corresponde a un fuente tipográfica que no está instalada aún.

    1. The acrid smell of hot solder emanates from a table in the corner, where an intergenerational group of people is learning how to build a pirate FM radio station. Across the room, at the beat-making collaboration station, three teenagers with headphones on nod in time to the boom boom bap of hip hop beats they are creating. In another corner, several children goof around in front of a giant green screen, where they shoot still images that they will later stitch together into an animation. These activities, and many more, are part of a DiscoTech, or Discovering Technology community fair, within the Media a Go Go Lab at the 2012 Allied Media Conference (AMC).2 The description of that space in the AMC program reads

      Diagrama de subconjuntos del diseño inclusivo y la accesibilidad creado por Livinda Christy:

      DIseño inclusivo y accesible

      Principios del diseño inclusivo A continuación siete principios del diseño inclusivo que fueron publicados por Henny Swan, Heydon Pickering, Léonie Watson e Ian Pouncey en inclusivedesignprinciples.org.

  7. Mar 2024
    1. (1 to: 20 ) collect: [:each | each * 2]

      each es reemplazado en cada uno de los valores de la colección y luego se hace el cálculo dentro del bloque:

    1. b := [:x | x + 2]. b value: 20

      La caja b está guardando no un valor, sino un procedimiento o cálculo futuro, cuyo resultado conocemos cuando asignamos los valores a los argumentos de los cuales dicho cálculo requiere.