2,499 Matching Annotations
  1. Nov 2024
    1. Brindar total concentración a los que se está haciendo para poder analizar de forma crítica para qué me puede servir lo que estoy viendo y cómo lo podría aplicar. Generar preguntas puntuales que permitan el entendimiento de los demás en el aula para poder recibir una respuesta acertada.

      Cómo estos dos aspectos puntuales se expresan en la clase. Frente a cada punto:

      • En el primero, dado que el uso constante del computador implica la posibilidad de tener interrupciones como mensajería instantánea y ventanas alternas del navegador, recomendaría:

      • Cerrar aplicaciones de mensajería instantánea y usar una ventana del navegador nueva para la clase.

      • Usar el celular al mínimo y tenerlo pantalla abajo, mientras tanto.

      • Para el segundo, efectivamente las preguntas son claves y su expresión clara. Cuando no se viene a clase, vale la pena formularlas por escrito a través de correo o lecturas anotadas.

    2. que sea más claro el para qué y cómo puedo aplicar lo que estamos viendo en los distintos ámbitos de mi vida.

      Como veíamos en el video de Clay Shirky, el asunto es que, precisamente, saberes como los que vemos en clase están lejos del cotidiano de la mayoría de las personas, lo cual tiene afecciones respecto a la democracia, el ejercicio de los mecanismos de expresión y la vigilancia de lo común y lo público.

      La universidad como espacio, nos permite acceder a conocimientos que no circulan en el cotidiano (ecuaciones diferenciales, modelación de sistemas complejos, ontologías, etc.) y esa es una de sus funciones principales. La pregunta sería más bien qué tipo de cotidiano queremos transformar y cómo estos saberes tienen (o no) el potencial para hacerlo.

      La invitación es a que cada cual, que conoce mejor su propio cotidiano y lo que le interesa transformar en él, haga proactivamente y explícitas las preguntas y posibilidades al respecto, ojalá durante la clase.

    3. he podido utilizar en otras actividades de mi vida cotidiana.

      Sería bueno explicitar en cuáles

  2. Oct 2024
    1. SI as changing social relations, involving new ways of doing, knowing, framing and organizing, and theorizes transformative social innovation (TSI) as the process of SI challenging, altering, or replacing dominant institutions in a specific social-material context
    1. no le encuentro todavía la aplicabilidad en la vida personal, siento que se pueden generar espacios de co-creación con el objetivo de siempre buscar el “bien de la humanidad.”

      Como veíamos en el video de Clay Shirky, el asunto es que, precisamente, saberes como los que vemos en clase están lejos del cotidiano de la mayoría de las personas, lo cual tiene afecciones respecto a la democracia, el ejercicio de los mecanismos de expresión y la vigilancia de lo común y lo público.

      La universidad como espacio, nos permite acceder a conocimientos que no circulan en el cotidiano (ecuaciones diferenciales, modelación de sistemas complejos, ontologías, etc.) y esa es una de sus funciones principales. La pregunta sería más bien qué tipo de cotidiano queremos transformar y cómo estos saberes tienen (o no) el potencial para hacerlo.

    2. interiorizar el conocimiento me parece complejo, (aunque considero que esto es algo más personal). Por último, el ritmo de clase,, en ocasiones resulta acelerado lo que impide la buena interiorización del conocimiento.

      La metacognición es aquel proceso que nos permite saber cómo sabemos lo que sabemos. La invitación sería a usar metacognición para indagar por esos procesos de interiorización y sus complejidades

      • ¿Cuándo dirías que un conocimiento se encuentra plenamente interiorizado y cuánto tiempo requiere esto? ¿Cómo y cuántas de las horas de trabajo autónomo asignadas a una materia con esta cantidad de créditos están siendo aplicadas?
        • ¿Hay algún registro o bitácora que permita ver esos avances, aparte de los mecanismo de publicación ofrecidos en clase?
        • En un mundo de constante interrupción a través del celular y el computador, ¿cómo mantenemos a raya esas distracciones para, efectivamente, podernos concentrar en procesos que requieren dicha interiorización?
      • ¿Dónde radican las dificultades que te impiden esa interiorización?

      Respecto a los ritmos de la clase, estos presumen ese trabajo previo de, no más de 8 horas autónomas. ¿Se pueden invertir ese máximo de horas semanales y por qué sí o no? Si se piensa en esa cantidad de horas de trabajo autónomo, aún así el ritmo de la clase iría rápido? ¿Qué otras mediaciones (documentación, videos, software, etc) podemos cocrear para ayudar esa parte autónoma y mejorar los ritmos?

    3. Evaluación de programas o herramientas de empleo: este punto puede ayudar al profesor o a los demás estudiantes herramientas que aporten al mejor desarrollo de las habilidades esperadas en el curso.

      Interesante. ¿Colocarías documentación sobre estas herramientas en tu propio repositorio?

    4. No se trata de abarcar todo el tema posible en una sola sesión sino que lo que se abarque se haga de la mejor manera.

      De acuerdo. Complementaría esto con el trabajo autónomo.

    5. Trabajo en equipo: si bien las habilidades a desarrollar propuestas por el profesor son interiorizadas por los estudiantes a su propio ritmo, integrar espacios de trabajo en equipo en donde se puedan compartir las habilidades entre todos. análisis de conocimiento en ambientes diferentes a la tecnología: Identificar como los temas desarollados se pueden emplear o se relacionan en otras áreas de conocimiento. Revisión de pares: Revisar un poco los pares del área para evaluar que se puede implementar en un ambiente académico.

      Todas estas son excelentes alternativas para el trabajo entre pares y aútónomo. ¿Cómo se dejaría huella/registro de esto que se haga y cómo se compartiría con el resto de la clase, incluyendo al profesor?

    1. This is why companies like Zapier are leading the pack of automation platforms that provide the build-bridging as a service.

      build-bridging as a service [!!!]

  3. Sep 2024
    1. Feminismos

      Antes de presentar los feminimos debería haber una introducción. Una presentación charlada de las temáticas generales y motivaciones detrás del texto.

    2. estudio comparativo

      ¿Debemos empezar acá? Una de las cosas potentes de la tesis como estaba formulada el semestre pasado era que hacía "incomparable" lo humano y lo máquínico al colocar el problema del contexto, la respuesta en tiempo real y los cuerpos cuando abordada el problema de la traducción simultánea. Esta esta versión, buscando el caracter de comparable, dicho elementos diferenciales desaparecen.

    3. Humano vs máquina

      Si bien es llamativo porque da cuenta de una tensión que mucha gente ubica y cree que es venidera, realmente lo que tenemos es ecosistemas humano maquínicos, es decir personas en colectividades con capacidades de computo y agendas enfrentados entre si con sus miradas de futuro.

    1. 4 between: 0 and: 10.
      • Objeto: 4
      • mensaje: between: and:
      • Argumentos: 0, 10
    2. SmalltalkImage current datedVersion. NOTAS no entiendo este códIgo, para que sirve exactamente

      Lo que obtenemos es esto:

      Pharo11.0.0 of 7 March 2024

      que corresponde a la versión de Pharo y su fecha de lanzamiento.

    1. 1 + 1 = 2.
      • objeto: 1 + 1
        • objeto: 1
        • mensaje: +
        • objeto: 1
      • mensaje: =
      • objeto: 2
    2. 1 class.

      La clase de un objeto, es el conjunto al que pertenece dicho objeto.

    3. $a class.

      Representa sólamente al caracter "a".

    4. 'a' class.

      Este representa a una secuencia de caracteres, llamada cadenas de texto.

    5. operador $

      Este operador nos permite distinguir la letra "A" de la variable "A"

    6. ASCII number for a character

      Otra tecnologías es el Unicode

    7. (1/3) asFloat. Nota: Hace la operación que se le pide

      Todas lo hacen. ¿Pero cuál es esta operación en particular? En este caso se trata de la descomposición decimal.

    8. DateAndTime today.

      Son aspectos distintos que modelan el tiempo de manera distinta. Para la hora se usa Time y para la fecha y hora se usa DateAndTime.

    9. SystemVersion current. Nota: No entiendo para qué sirve la línea

      Este entrega información sobre el sistema:

    1. Mucho más completo mapa mental y mejor descripción verbal del mismo, que está asociado no solo a lo reciente del mapa, sino al nivel de detalle del mapa.

      Valdría la pena incorporar el contraste con otros paradigmas de computación/programación mostrados en el video mismo.

    1. Puede que la IA adquiera un poder inmenso en un futuro y se cumplan esos riesgos que a decir verdad, dan miedo, pero lo mismo sucedió con los computadores en su época, surgieron temores donde se decía que en unos años iban a superar nuestras capacidades humanas, cosa que no sucedió. Ahora bien, si hay un tema importante y es saber utilizar estas herramientas para complementar nuestras habilidades como seres humanos, no para que nos hagan las cosas y nos volvamos dependientes de estas. Por lo tanto, no me preocuparía tanto porque la IA nos reemplace o destruya en un futuro.

      Creo que es importante mantener una postura esperanzada pero crítica, no sólo frente a las tecnologías venideras, sino a las que tenemos "naturalizadas" ya. De este modo podemos saber cuándo es mejor la bici o el metro (subterraneo!) que el carro particular o no revisar notificaciones de redes sociales al despertar o saber cuándo es mejor escribir uno mismo a que lo haga una IA.

    2. Es importante que el mapa refleje los elementos estructurales del video (su tabla de contenido) de manera más detallada.

    1. Considero que nunca vamos a estar completamente preparados para la inteligencia artificial, es algo que cada día está tomando más control de decisión en las empresas no solo en el sector tecnología sino en todos los sectores.

      Quizás lo que tenemos que cuestionar es la noción misma de IA, al menos como las grandes empresas del Valle de Silicio (Sillicon Valley) de modo que podamos desenmascarár muchos de los mitos al respecto.

    2. No estamos preparados para la inteligencia artificial

      El mapa refleja varias de las tensiones del video y los impactos negativos de la IA para la sociedad.

      Es importante que el mapa mental refleje de manera más detallada la "tabla de contenido" del video, de forma que conceptos como "bosque oscuro" queden claramente articulados.

    3. ¿Si la ChatGPT es creado inicialmente en inglés ¿Cómo es posible que sea capaz de interpretar palabras en otro idioma?¿incluso cuando usan un abecedario diferente al occidental?

      Hay dos elementos:

      • La empresa es estadounidense, pero el data set es multilingüe. Por tanto, el modelo vectorial de lenguaje puede expresar información en distintos lenguajes, expresando, de todos modos los sesgos en el conjunto de datos que lo alimentan.
      • Los modelos de lenguaje capturan relaciones entre palabras que se escapan a la pronunciación o l atraducción literal particular y reflejan relaciones probabilísitcas, por tanto una relación probabilística en un idioma (rey y reina) se puede reflejar en otra (king y queen).
    4. Sobre el examen de abogados, la pregunta es sí esos exámenes miden cosas que van más allá de la manipulación del texto. La idea de que el examen prueba más a la prueba que a la persona que lo presenta y como esta también refleja sesgos de los evaluadores (por ejemplo frete a qué es ser inteligente, para el caso del IQ o qué es ser un abogado, en caso de la barra de abogados).

    5. No logré publicar el mapa en Internet Archive

      ¿Qué errores puntuales se presentaron durante esta publicación? Por favor documéntalo agregando capturas de pantalla.

    1. Debido a la magnitud de información y las redes neuronales que forma esta herramienta, puede que en algún momento esta logre satisfacer las necesidades que los seres humanos no han conseguido completar.

      ¿Cómo cuales necesidades?

      Respecto a lo que dijiste de la cura de una enfermedad, interesante lo que se de despligue de proteinas. Pienso mirar la complementariedad entre humanos y máquinas, así como las instituciones como las articulan.

    2. Creo que hay varios elementos del lenguaje en los cuales el mapa no profundiza, en particular cómo las redes neuronales funciona y cómo se construyen los modelos vectoriales del lenguaje.

    1. In June 2019, we (Bret, Luke, Josh, Paula, Omar, Weiwei) collected all of our Dynamicland-related photos and videos onto a "documentation drive".  The media was organized both by date and by Realtalk project or topic.  We also also made a giant table in Notion of all notable Realtalk projects, with notes and page numbers.  In early 2020, I got media from Toby and Glen, and added the subsequent media from Luke, Josh, and Omar.Last week, I made some Realtalk pages to scan the collection, assign every file an "accession number" of the form DL2018-01-31-debb83.mov(where 2018-01-31 is the date the photo/video was taken, and debb83 is the first six digits of the file's md5), tag the files based on their old directory names and filenames, generate a new directory structure of the form, archived-media/originals/2018/01/DL2018-01-31-debb83.movgenerate thumbnails of the form archived-media/thumbnails/2018/01/DL2018-01-31-debb83.jpgand print out an album.

      Interesante esta mezcla de digital a análogo y las herramientas que en el domino digital continúan usando (drives, Notion, etc). Por supuesto, el grupo está enfocado en la segunda parte y sus innovaciones (Realtak, etc) y no en las innovaciones en la primera (drive, Notion). Dado que nosotros sí nos enfocamos en esta gestión alterna de conocimiento en lo digital, usando infraestructuras de bolsillo, metaherramientas y programación intersticial, cómo esto podría tener una contraparte y puente en análogo, lowtech, similar a Hypertalk in the world

    1. Realtalk is just one component of a culture, and downloading source code does not download values, norms, practices, and tacit knowledge. We intend the culture to spread in a manner similar to scientific practices, trades and crafts, martial arts, spoken language, and so on — in-person immersion in a community of practice, teachers teaching teachers. This will take time, and it may appear that Realtalk is “exclusive” during that time. But open-source software is also exclusive, to those who find meaning in source code. And those people already seem well-provided for.

      No tiene porque haber contradicción entre los encuentros en persona, que transmiten y encarnan cultura y los medios digitales donde también transitan. Nuestras Data Rodas tienen también inspiración en una cultura del cuerpo, con encuentros en persona y virtuales, a la vez que producen código y prosa que transita para quienes no están en los encuentros cara a cara.

    2. Open source is not open to most people. Source code in a git repo is not open to everyone. It’s open to the select class of people who know what it means to clone a git repo.

      Algo que se puede percibir muy rápidamente y, de hecho, una de las motivaciones detrás de mi tesis doctoral y que allí afirmé en la línea de "no puedes entender lo que no puedes cambiar". La mayoría de herramientas de software son paradógicamente inflexibles (no parecen la parte blanda, sino dura, por ello), en particular, por todas las fricciones para entenderlas y cambiarlas, incluyendo en manejo de Git.

    3. The term “open source” encompasses at least four different meanings, which we need to disentangle: People using a program can see and modify how it works.This is a form of agency. People on the internet can study and learn from the source code.This is a form of publishing. People on the internet can download and run the software.This is a form of product distribution. People on the internet can develop the software collectively.This is a form of collaboration.

      Interesante una definición que dialogue con la de software de código abierto, pero va más allá de ella y que involucre cuerpos en contextos particulares.

      Sin embargo, en la anotación sobre sensórica muestra un componente que podría ser de código abierto y no lo es y que tiene que ver con cómo otros programas computacionales perciben el entorno y reaccionan al él. Por supuesto, se podría pensar que este no es el código fuente del programa Realtalk, sino el de la máquina virtual que hace que el código fuente se pueda interpretar y ejecutar. Estos elementos pueden ser inmaduros pero interesantes. en últimas la pregunta es:

      ¿Cómo Realtalk ocurre y se desarrolla en más espacios, que no están ubicados en el Norte Global?

      Bret Victor ha hablado varias veces de que cuando se comparte el código, la gente se enfoca en la parte más débil de las ideas, las varía y las expande, en lugar de enfocarse en cosas más fundamentales, como pasó con Smalltalk y las pobres implementaciones de la idea de objetos en lugar de mensajes y con JavaScript y su desafortunada difusión inmadura y remendada por todo Internet.

      Uno de los inconvenientes del código abierto es que implica mantener y cuidar una comunidad de usuarios y esto puede ser muy demandante, particularmente en proyectos grandes.

      En parte, esto refleja el contexto de bienestar en el norte global donde se desarrolla Dynamicland, en el que se puede pensar a mediano y largo plazo, sin ofrecer elementos imperfectos para a agencia comunitaria en el presente.

    4. In Realtalk, a “program” can be any physical situation that can be sensed with sensors and interpreted by another program.
    1. testPage documentTree children select: [:item | item class = PPCMParagraph and: [ |avisos palabra| palabra := item children first text. avisos := #(':::info' ':::success' ':::warning' ':::danger'). avisos includes: palabra ] ]

      Revisar los espacios verticales y horizontales del código, de manera que correspondan a las convenciones, en particular los que indican que código pertenece o está anidado dentro de otro conjunto de intrucciones.

    2. Se crea un bloque para que podamos agrupar información, entonces el codigo nos dice que tenemos una variable llamada testPage donde se seleccionara o envia a documentTree children que son los nodos o hijos, item class verifica el formato que en este caso es PPCMParagraph, donde los filtra y selecciona segun condición y el and lo usamos para dar una segunda condicion que evalua a las variables avisos y palabra, luego las definimos y en palabras queremos que tome al primer hijo o nodo y se obtenga el texto del mismo. y en avisos estamos definiendo una coleccion de variedad de tipo de avisos y por ultimo tenemos una variable que es avisos que incluye a la coleccion de palabra

      Esta explicación valdría la pena agregar capturas de pantalla que muestren el resultado.

    3. |avisos palabra|

      Es muy recomendable que las variables también esten nombradas en inglés. Si te das cuenta, es el único código que no está en inglés, así que no puedes ignorar el inglés en el resto del código ni en la programación en general y por el contrario, colocar los nombres de las palabras dificulta compartir el código en contextos no hispano parlantes

  4. Aug 2024
    1. Agregar capturas de pantalla a los mapas, de manera que se invite a su lectura.

    2. Hay un límite de preguntas en Leo de Brave en la versión gratiuta.

      Una manera sencilla de colocar pantallazos en línea es usar https://imgur.com/ y "New Post", pegando el pantallazo que se ha copiado en otra aplicación, por ejemplo Flameshot.

    3. Habría que mirar cómo se comportan las preguntas si:

      1. ¿Son más detalladas las preguntas?.
      2. Se aplica RAG (Retrieved Aumented Generation / Generación con Recuperación Aumentada):
        • Navegando páginas que aumenten el contexto en Leo/Brave.
        • Agregando documentos de Docutopia a los recursos de NucliaDB
    4. Abre Gtoolkit y abre tu proyecto Docutopia. Ve al menú “Project” y selecciona “Version Control” y luego “Fossil”. En el panel de Fossil, asegúrate de que el repositorio en línea esté seleccionado. Realiza los cambios que desees en tus documentos de Docutopia. Utiliza el comando “add” en el panel de Fossil para agregar los archivos modificados a la zona de preparación. Luego, haz clic en el botón “Commit” o utiliza el atajo de teclado “C” para confirmar los cambios y agregarlos al repositorio en línea. Si deseas enviar los cambios al repositorio en línea, utiliza el comando “push”. ¡Listo! Tus cambios en los documentos de Docutopia ahora están actualizados en el repositorio en línea.
    5. Abre Gtoolkit y abre tu proyecto. Ve al menú “Project” y selecciona “Version Control” y luego “Fossil”. En el panel de Fossil, haz clic en el botón “Repository” y selecciona “Open Repository”. Introduce la URL de tu repositorio en línea y haz clic en “Open”. Si el repositorio requiere autenticación, introduce tus credenciales. Una vez conectado, tus documentos se vincularán automáticamente al repositorio en línea. Asegúrate de usar el comando “add” para agregar los archivos al repositorio y “commit” para confirmar los cambios. ¡Listo! Ahora tus documentos de Gtoolkit están enlazados a tu repositorio en línea a través de Fossil.
    6. ¡Hola! Para agregar archivos que creaste en Docutopia a Fossil usando la herramienta Gtoolkit, sigue estos pasos: Abre Gtoolkit y abre tu proyecto Docutopia. Ve al menú “Project” y selecciona “Version Control” y luego “Fossil”. En el panel de Fossil, haz clic en el botón “Add” o utiliza el atajo de teclado “A”. Selecciona los archivos que deseas agregar y haz clic en “Open” o presiona “Enter”. Los archivos seleccionados se agregarán a la zona de preparación de Fossil. Finalmente, haz clic en el botón “Commit” o utiliza el atajo de teclado “C” para confirmar los cambios y agregar los archivos al repositorio de Fossil. ¡Listo! Los archivos de Docutopia ahora están en tu repositorio Fossil a través de Gtoolkit.
    7. ¡Hola! Fossil es un sistema de control de versiones distribuido (DVCS) que también ofrece seguimiento de errores, wiki, foro, alertas por correo electrónico, chat y servicios de notas técnicas. Viene con una interfaz web integrada, simplificando el seguimiento de proyectos y promoviendo la conciencia de la situación. Fossil admite sistemas operativos Linux, BSD, Mac, y Windows. Es una herramienta útil para mantener el control de versiones de software y colaborar en proyectos.

      Ni la pregunta ni la respuesta capturan el contexto.

    8. https://docutopia.sustrato.red/juliana:autonomo

      Es conveniente agregar a este documento no sólo los enlaces originales en HedgeDoc/Docutopia, sino también los enlaces al repositorio.

    9. Tutorial Markdown https://docutopia.sustrato.red/juliana:markdown

      Ten presente que las subsecciones suelen tener jerarquías continuas. Reemplaza:

      ### Tutorial ...

      por

      ## Tutorial ...

    1. Mapa mental

      El mapa mental debería tener ramas más detalladas que permitan recuperar y justificar información incluso meses después de lo que estamos haciendo

    2. Con las preguntas realizadas, la herramienta brindó respuestas acertadas y precisas uniendo la información de los diferentes documentos cargados. En este caso fue verosimil, pero con un gran volumen de información puede que no acierte de la misma forma.

      Sería conveniente agregar el hecho de que las respuestas dicen que apelan a más fuentes de las que realmente usan. Para ello es bueno tener la respuesta textual fuera de la captura de pantalla

    3. Buena presentación visual acompañada por capturas de pantalla. Sugeriría colocar respuestas textuales también, transcritas desde NucliaDB de manera que se puedan revisar en detalle fuera de la captura.

    1. If a problem is shared by only a handful of people, it's probably not worth programming a solution. Great Programmers Solve Important Problems The best programmers aren't simply the ones that write the best solutions: they're the ones that solve the best problems. The best programmers write kernels that allow billions of people to run other software, write highly reliable code that puts astronauts into space, write crawlers and indexers that organize the world's information. They make the right choices not only about how to solve a problem, but what problem to solve.

      Precisamente esa idea grandilocuente de qué son un programador y un problema valiosos es lo que deja desatendidas las soluciones que no suenan ambiciosas.

      Preferimos terraformar marte, que el depredado Amazonas.

      En contraste el software situado nos ha permitido resolver problemas para comunidades pequeñas en HackBo, nuestro hackerspace local o ayudando en la preservación lingüística en el Amazonas.

      En los ejemplos, todos los problemas a resolver parecen grandilocuentos: miles de millones de personas, la información del mundo, los astronáutas. Pareciera ser que el vecino, la familia, la comunidad local, están por fuera de esos imaginarios. Al menos pensar que los problemas importantes tan bien son cotidianos y pequeños es algo que vale la pena comunicar más asertiva y reiteradamente.

      Una de las cosas interesantes es que Breck cuenta en otra entrada como el software debería ahorrar tiempo a las personas, y allí revela una sensibilidad por los problemas pequeños, que le importaban a su familia y a él como niño/adolescente: tener 20 minutos más para poder jugar o ahorrarle esos 20 minutos a su familia a conectarse a internet.

      Lo que creo que necesitamos es una manera de expresar software para el cuidado: de la gente, del planeta, del tiempo. Algo como un software convivial, en las líneas de las tecnologías conviviales de Ivan Illich.

    2. Here's one rubric you can use to test whether a problem is worth solving:

      En la escala de simpleza, valor y alcance, diría que Grafoscopio, fue un problema que logró, en su contexto de una investigación doctoral que quería "escapar" de la academia, capturar las tres: era suficientemente simple, valioso y de alcance, para que importase en los contextos nacionales e internacionales en los que lo presenté y a los que me dió acceso. Sin embargo, es un proyecto de alcance limitado, con un problema compartido por un grupo específico de personas, cuyas necesidades no son resueltas adecuadamente por otras soluciones.

    1. Stripped out all the legacy "desktop UI" stuff, and replaced with a simpler "multi-page notebook" metaphor, then it could be massively more compelling to people. It then becomes a "personal notebook" for doing little sketches / experiments.If it's also "social" ie. has chat streams. Or is like the Smallest Federated Wiki. Or has other ways to sync sketches and pages etc. then this would be spectacular.And the Smalltalk VM / infrastructure is perfect for it.

      I have found the GT/Lepiter GUI pretty compelling for learners in my local hackerspace and in the information science department, both spaces where I'm a facilitator/teacher. It provides a pretty focused experience and it is stripped down of the overwhelming initial experience of the Pharo/Squeak GUI. It is not well suited for "classical Smalltalkers" though. as I have been talking with some of them and they find the DX too much specific and even cumbersome for some task they usually do (it has been not our case so far).

      In our last use case at the university, the students are creating a personal code repository in Fossil, with data narratives and they do a critic/annotated reading, using Hypothesis (this very technology), which is kind of a personal public wiki-like portfolio for data narratives. They put also the reading notes in their own repositories for the data stories I published previously where I introduce Smalltalk or and introduction to data representation and processing in Pharo.

      This could be another approach for wikis in the classroom, that is alterative to our use of interpersonal wikis with TiddlyWiki. At some point and in a pretty organic way, the idea would be to have all them integrated and powered by "context aware" and thematic chatbots (made in Pharo).

    2. What I think Smalltalk should look like in 2018 is something like JuPyter / iPython notebook. Or, at a pinch, HyperCard.I open "Smalltalk" (whether that's a browser-based version equivalent to Amber, LivelyKernel or Peter Fisk's Smalltalk Express, or a desktop version like PharoLanguage or SqueakLanguage), and what I see is a "smart notebook" type metaphor :A single page that takes up the whole window. To which I can start adding "cells" or "cards" containing either code or "literate" style documentation, or output produced by the code.You'd still have tools like the Class Browser etc. But they'd be integrated within the same UI. Ie. the class browser is just more "pages" in the notebook. There's no workspace or transcript because every page can have live code on it.This UI is immediate. And focused on "do something".

      On a similar approach, I created and actively developed from 2014 to 2019 Grafoscopio, which, while being inside Pharo and a companion of all other tools, was providing a computable outliner to do something: write computable and reproducible documents and bridge the gap between the IDE and the app for a more mature audience (a similar approach for children was previously tested in Squeak, with Etoys).

      This allowed me to write the Grafoscopio Manual (2016) inside Grafoscopio or to do with the community some hacktivist republishing, like we did with the Data Journalism Handbook (2018)

      Of course, being those initiatives from the so called "Global South" and being Grafoscopio my first "real program" ever, they lacked the visibility of Global North initiatives, like the ones you collected in Smart Academic Notebook, but they were acknowledge and appreciated in small/specialized communities, like the Pharo community.

      With the new GUI/DX provided by Lepiter (2021), I have been migrating the Grafoscopio Lessons from the previous half decade to this technology, with the MiniDocs package and I imagine Grafoscopio becoming more a software distribution on top of Pharo/GT, providing documentation and collaboration workflows and improved outlining with packages like TiddlyWikiPharo or the Brea decoupled CMS / static site generator.

      BTW, as I don't know how to add comments or suggest updates I wonder why this note is not updated with Lepiter as it provides pretty much the experience you were advocating for since 2018 and it is already in your wiki/bliki. Maybe it is just a matter of some wiki refactoring a links update.

    1. HedgeDoc/Docutopia: Memorias hipertextuales de la clase en tiempo real Fossil: Repositorio con archivos Markdown, enlaces y exportaciones de mapas mentales Gtoolkit/Grafoscopio: con las narrativas interactivas de datos .

      Esto debería ser un listado de item:

      * HedgeDoc/Docutopia ... * Fossil ... * GToolkit/Grafoscopio ...

    1. temporalFile := myRepo / myFolder / myMarkdeepFile basename. temporalFile ensureDelete. myMarkdeepFile copyTo: temporalFile

      ¿Qué hacen estas tres líneas? Explicarlo una por una.

    2. Continuación codigo de Lepiter a Wiki-Repositorio Local

      cambiar la jerarquía. No tiene sentido un 0.1 debería ser 1.

      Sustituir

      ## Continuación...

      # Continuación...

    1. memories doWithIndex: [:item :index | item metadata at: 'title' put: 'Unidades semanticas, sesión ', index asString ].
    2. memories := sessions collect: [:session | doc := HedgeDoc new url: commonAddress, session asString; retrieveContents. ]

      Convertir en Phaor

    3. commonAddress := 'https://docutopia.sustrato.red/semanticas:24A' sessions := 1 to: 13 commonAddress := 'https://docutopia.sustrato.red/semanticas:24A' sessions := 1 to: 11 memories := sessions collect: [:session | doc := HedgeDoc new url: commonAddress, session asString; retrieveContents. ]

      Esto debería aparecer como un trozo de código y está como prosa.

    1. Anyway, Lepiter gives me the first step for a publishing tool. I have the document. Now I just need to export it.

      We, in the Grafoscopio community, had a similar need, but our approach was different: to keep the format simple and to use Pandoc combined with metasystem capabilities of Pharo (for example the fact that a document can be used to program itself) to address publishing formats and reproducibility.

      More details as comments ahead.

    2. From here, we can save these resources in a directory. My blog repository already has a directory for them, so we dump them there. aContext assembler assemble. LeExportResourcesDirectorySaver new resources: aContext resources; rootDirectory: FileLocator imageDirectory / 'pharo-local' / 'iceberg' / 'hellerve' / 'blog'; save

      This part can be pretty useful in the future. For the moment, we are using only external images as resources in our data narratives, because this makes easier to share and publish them in our almost real time publication workflow that bridges HedgeDoc with Fossil via Lepiter+MiniDocs.

      In the future I would like to make some results embeddable, particularly graphics produced by GtMondrian and hopefully Roassal as SVGs or even interactive JS objects in something like Echarts. We made some exporting test of web pages with interactive external resources that are produced from simple Lepiter+MiniDocs documents like this one.

      As Markdeep its showcasing its limits and bug fixing is slow to non-existent, we are exploring Pandoc options again, including external interactive objects, while enjoying Markdeep for simple documents/workflows.

    3. It looks a bit like a Mustache template, and it is already a HTML file.

      For the Brea static site generator / decoupled CMS, we used also Mustache.

      One of the advantages of Mustache is its "web preview" capabilities. So a page like this one:

      can be created with a template like this one:

      Following Brea's convention, template pages end in .mus.html, so they can be rendered like a normal web page.

    4. This page doesn’t link to any other pages, but our exporter doesn’t know that, so we need a bulder for these links. It will collect all the links we need for the page to work. In our case, it will only contain one page link: the one to the page we are working with.

      For the moment, linking to other pages is absent. What I get is something like [[Page title]] in our current Markdeep based exportation strategy, as you can see in one of my last examples.

      In the future I would like each page to store the (Fossil) repository where they are saved, so, each time the traversal algorithm that creates the Markdeep/Markdown page founds a page link, will ask that page to give its web link (relative or absolute, depending on if they're located or not in the same repository).

    5. It is a fun environment to write, think, and work in. Most of our new code gets its start as a Lepiter document, where we play in snippets and add views until the code base has formed, almost as if by accident. It is hard to describe, but I was thinking to do a live-coding session or two when I find the time.

      Agreed. Lepiter creates a pretty joyful experience for what I would call "story driven development" and/or data narratives. It makes pretty fluent the "story/argument first driven" workflow that we already had with Grafoscopio and that is pretty usual in social sciences and humanities, in contrast with the "test first driven" approach of development cultures.

      In my experience it is easier to introduce non developers to this kind of mindset, as we don't fight against some established tradition. Of course, different traditions can prioritize the starting/main point in differently.

    6. page := thisSnippet page

      Being able to refer from the code inside a document to the document that contains it, was also a need we felt with Grafoscopio. For that, We used thisNotebook, as can be seen in our republication of the Data Journalism Handbook (in Spanish) or in this screenshot from its repository:

      In our case, because my approach was not to convert the document inside Pharo, but leveraging Pandoc, thisNotebook allows us to provide PDF export options on the Markdown version of the notebook, to produce high quality PDFs besides the HTML export. As the screenshot above shows, the options where stored inside the document itself, internalizing what would be an external shell command, increasing document reproducibility also in the publication front (what added to the data reproducibility front). This was years before similar approaches like the Jupyter Book or Quarto and I still think that Pharo based tools can have leaner reproducible documentation workflows that their counterparts in other languages.

      Having support for similar ideas later in Lepiter, implemented by more experienced programmers, in the form thisSnippet and being able to compose it with page and database has been a real time saver in migrating some lessons from Grafoscopio to Lepiter.

    7. Most of my notes will be colored by my previous experience co-designing/developing Grafoscopio

    8. But unlike a notebook, I can easily extend it to house arbitrary snippet types, for instance YouTube video embeds.

      It depend of the kind of notebook or the meaning of arbitrary snippet types. For the case of Elixir's LiveBook, the smart cells provide customized content/UI, described in Elixir and easily versionable, as with the rest of the document, that uses another custom version of Markdown --lmd for Live(book) Markdown-- to deal with the pitfalls of storing notebooks in JSON.

    1. Twitter Scraper fue altamente eficaz en la recolección de datos textuales y en la identificación de patrones en los tweets. Su enfoque en el contenido textual permitió una cobertura integral de los temas discutidos, operando de manera eficiente y procesando grandes cantidades de datos textuales en un tiempo reducido.

      Decirlo de manera más clara.

    2. Su capacidad para manejar grandes volúmenes de datos permitió una recolección exhaustiva, y mostró un rendimiento eficiente en la ejecución de tareas de scraping, completando la recolección de datos en un tiempo razonable sin comprometer la calidad

      Decirlo con palabras más llanas y claras.

    3. Fue eficiente en obtener una gran cantidad de datos textuales, capturando un volumen significativo de tweets y hashtags, así como menciones y enlaces. Esta densidad de información textualmente rica facilitó la identificación de temas y sentimientos predominantes en el discurso político.

      Aclarar o quitar

    4. más exitosa

      con mayor calidad del dato

    5. Para garantizar que las conclusiones sean sólidas. Compararemos en profundidad las herramientas.

      Para garantizar que las conclusiones sean sólidas, compararemos ~~en profundidad~~ las herramientas.

    6. Este marco teórico proporciona la base conceptual para abordar los desafíos y oportunidades que presentan las nuevas tecnologías en el análisis de datos sociales y políticos.

      Borrar.

    7. , demuestra características innovadoras de suma significación en términos de procesos y resultados esperados, entendiendo estos últimos como el impacto de la investigación. Además
    8. Nuestro objetivo es gestionar y organizar el volumen masivo de datos textuales creados en X/Twitter durante la candidatura a la alcaldía de Bogotá en X/Twitter utilizando técnicas de minería de textos. Con el uso de esta metodología innovadora, podemos examinar las ramificaciones políticas de la difusión o proliferación de información en la plataforma y producir modelos útiles que pueden aplicarse para mejorar la toma de decisiones políticas y estratégicas.

      Este ya no es nuestro objetivo. Sino el de analizar la calidad de los microdatos extraídos.

    9. ==Se discuten los desafíos asociados con la reproducibilidad en la investigación de datos==. {{dónde}}
  5. Jul 2024
    1. Los microdatos

      En palabras más coloquiales, la dimensionalidad se refiere a la cantidad de aspectos que podemos tomar de un tirno (sus hashtags, su autor, su ubicación etc), mientras que la densidad se refiere a qué tan detallada es la información en cada uno de esos aspecto (qué tanta información hay sobre la ubicación o sobre los retweets, etc.).

      Si dimensionalidad y la densidad se representaran en histograma la primera daría cuenta de la cantidad de barras en el mismo y la segunda de la altura de las mismas, mostrando datos con distintos niveles de profundidad.

      SEPARAR PARRAFO

    2. de reflejar la calidad de los datos y abordar las deficiencias identificadas.

      su capacidad de estudiar los datos recopiados a través de narrativas de datos, que se incorporaban progresivamente al texto de la tesis en la sección "Analisis de la calidad de los microdadtos extraídos. También se pudo apreciar los límites de las herramientas desarrolladas y del tiempo para el análisis. Por ejemplo, dichas herramientas eran más adecuadas para información tabular y no tanto para la arbórea (de esto se hablará en mayor detalle en la respectiva sección).

    3. relacionados

      recolectados

    4. La distancia mantenida con los interesados en esta fase permitió un enfoque en la construcción de herramientas analíticas y reproducibilidad.

      El diseño de estas herramientas, se hizo de manera "cerrada", como suele ocurrir en esta fase, en este caso entre tutor y tesista., usando los criterios de sencillez y flexibilidad que se explican en la parte de invesgación reproducible.

      Este entorno de investigación reproducible no sólo incluyó elementos de publicación progresiva de la tesis, sino también de escritura colaborativa y recepción de realimentación entre tutor y tesista.

    5. , nos enfocamos en refinar la organización y calidad de los datos textuales obtenidos. Esta colaboración nos ayudó a comprender la calidad de los datos obtenidos, lo cual fue crucial para el desarrollo del producto final.

      cambiar

      Sin embargo, sí se procedió al diseño de prototipos ligeros, del tipo "qué pasaría sí". En este caso, la pregunta tenía que ver con "qué pasaría si, al hecer scrapping de datos, queremos revisar su calidad".

    6. Utilizamos herramientas de minería de datos para evaluar la calidad y el contenido de los datos textuales recopilados.

      Se revisaron las restricciones del API actuales; se indagó con académicos de centros de investigación si ellos continuaban teniendo acceso a pesar de ellas, encontrando que no; se revisaron alternativas de código abierto usando el API no oficial de Twitter/X, las cuales estaban cerrando su acceso y procedió a elegir el scrappign como método de adquisitión de datos, dado el caracter puntual de los mismos, es decir, referidos a perfies específicos en lugar de analisis de sentimientos, interacciones y otros que, por lo general, sí requieren acceso al API.

    7. comportamiento de los usuarios en relación con cada tweet.

      decir cuáles

    8. dimensionalidad y densidad, utilizando tres herramientas

      dimensionalida y densidad, es decir sobre cuántos aspectos del trino nos brinda información y la profundidad de la información por aspecto, usando para tres fuente (Apify, bla, bli) y un entorno de investigación reproducible configuragurado a medida del problema, incluyendo algoritmos para revisar la dimensionalidad y densidad de cada fuente de scrapping.

    9. de los candidatos

      extraídos

    10. La investigación reproducible es crucial para el análisis de datos, especialmente cuando se utilizan microdatos de plataformas como Twitter, donde los datos pueden estar sujetos a cambios rápidos. Según Card, Min y Serghiou en su libro “Open, Rigorous and Reproducible Research: A Practitioner’s Handbook”, el acceso limitado a los datos y a los códigos fuente es un gran desafío para la reproducibilidad, que es crucial para validar los hallazgos y promover la transparencia científica (Card et al., 2021). Una planificación cuidadosa y una documentación exhaustiva de los procedimientos de recopilación y análisis de datos son fundamentales para garantizar que otros investigadores puedan replicar los estudios o utilizar métodos comparables en diferentes contextos (Card et al., 2021). En este sentido, el libro de Kitzes, Turek y Deniz “The Practice of Reproducible Research” proporciona ejemplos prácticos de cómo implementar prácticas reproducibles mediante el uso de herramientas y plataformas que facilitan el intercambio de datos y códigos fuente. En esta tesis, que se centra en el análisis de microdatos de los perfiles de Twitter de candidatos políticos, es fundamental aplicar un enfoque replicable. Esto incluye el uso de metodologías abiertas, la publicación de conjuntos de datos anonimizados y el uso de buenas prácticas de análisis de datos, como la planificación de análisis de la visualización cuidadosa de los datos. La adopción de estas prácticas no solo mejora la calidad y la fiabilidad de la investigación, sino que también contribuye al avance del conocimiento en el campo del análisis de datos en redes sociales.

      Mover a la parte de investigación reproducible abajo.

    11. Considerar

      Sería adecuado considerar...

    12. Explorar l

      Se recomienda...

    13. una amplia gama

      varios

    14. y su enfoque en interacciones puede resultar en una menor eficiencia en la recolección de datos textuales y de media.

      Aclarar o borrar. Hablando de que exporta trinos individuales en lugar de grupales y su estrutura de datos arbórea en lugar de tabular dificulta la exploración y el análisis.

    15. En primer lugar, la recolección y análisis de datos es crucial. Un entorno reproducible permite que todos los pasos realizados durante la investigación sean claros y verificables, garantizando que otros investigadores puedan revisar y validar los resultados obtenidos. En segundo lugar, la replicabilidad es un aspecto esencial en la investigación. Este entorno reproducible asegura que los métodos y resultados puedan ser replicados por otros investigadores, lo que no solo valida nuestras conclusiones, sino que también facilita estudios comparativos.

      El entorno reproducible permitió efectivamente continuar el trabajo en distintos computadores, con diferentes sistemas operativos y sin permisos especiales sobre las máquinas, incluyendo computadores domésticos, del tutor, del estudiante y del LabCI. En sentido dicho entorno permitió configurar una "nube personal académica" de baja complejidad tecnológica, que permitía mayor autónomia en la escritura y colaboración fluida, más allá de lo que permiten otras formas de escritura en línea más convencionales.

    16. Esto permitió un análisis profundo de la participación de los usuarios, mostrando cómo interactúaban con el contenido y qué tipo de tweets generan más engagement.

      Aclarar o quitar.

    17. lo que permitió un análisis detallado de la presencia y el impacto visual en los tweets.

      Aclarar o quitar

    18. ofreciendo una cobertura integral de los contenidos publicados y permitiendo identificar patrones y tendencias en el discurso de los candidatos.

      Aclarar o quitar.

    19. datos extensos sobre las interacciones de los usuarios,

      mas datos sobre las interacciones de los usuarios con un trino particular. Es decir ...

    20. Esto permitió obtener una visión completa de los elementos presentes en los tweets y cómo se relacionan entre sí.

      Aclarar o quitar.

    21. Cluster (Agrupamiento):

      Control de versiones: técnica utilizada para permitir el rastreos de las distintas versiones históricas de un archivo y sincronizar el trabajo con ellos entre distintas máquinas y personas.

    22. El entorno de investigación reproducible para esta tesis

      El entorno de investigación reproducible para esta tesis articuló un conjunto de herramientas que permitiesen la instación de software, el control de versiones históricas del texto de la tesis y otros productos de investigación asociados, la colaboración con el tutor y la publicación de productos intermedios, así como la exploración de los datos extraídos y su visualización.

      Este conjunto de herramientas se eligió sobre otras que podrían funcionar para el mismo propósito, debido a su simpleza y flexibilidad. Por ejemplo, Fossil es más sencillo de usar que Git y tiene más funcionalidades integradas (ver "[Fossil versus Git)[https://www.fossil-scm.org/home/doc/trunk/www/fossil-v-git.wiki]" y Lepiter+Grafoscopio/MiniDocs provee mayor flexibilidad de personalización sobre otras herramientas más populares como los Jupyter Notebooks (Luna 2019, cap tal).

      La selección de herramientas se hizo de manera tal que la escritura de la tesis, incluyendo el análisis de datos se pudiera hacer en distintos computadores con diferentes capacidades de procesamiento, incluyendo computadores familiares (Mac y Windows), así como computadores del LabCI. Esto acarrea cierta redudancia de herramientas como Zettlr y LiteXL, ambos usados para escritra en Markdown, pero el segundo más ligero y que funciona en máquinas más modestas.

    23. Nota:

      quitar todos los elementos "Nota:" en los pie de imagen de cada captura de pantalla.

    24. sino también para problemas sociales, políticos y tecnológicos.

      , como el que acá tenemos, pues los prototipos progresivos, permiten comprender fenónomenos complejos. En el caso de esta investigación, dichos prototipos ocurrieron en la forma de narrativas de datos donde se combinaba prosa, código, datos y visualizaciones para explorar los datos extraídos de Twitter/X y comprender su naturaleza. También la tesis es un prototipo en sí misma, pues en sus diversas iteraciones y repositorios de código se encuentra una evoluación tanto de la escritura, como de las comprensiones que se alcanzaron con esta tesis.

    25. contextos específicos

      y diversos.

    26. exhaustivamente

      quitar

    27. Marco teórico

      Hacer una introducción al marco teórico breve.

      La siguiente sección presenta los elementos teóricos que se juntan en esta tesis, considerando aspectos legales del scrapping, la ciencia de datos computacional, el giro computacional del archivo la gobernanza de la información, el concepto de calidad del micro dato y los dos elementos que en esta tesis se definieron para la misma, dimensionalidad y densidad

    28. Nota: Existen cuatro categorías según el valor que el archivo digital ofrece a sus usuarios (Goudarouli, 2018a)

      Cambiar la leyenda de la gráfica por:

      Las cuatro categorías de valor que ofrece el archivo digital a sus usuarios (traducción propia al español de gráfica en inglés por Gourdarouli, 2018a)

    29. En las imágenes, es importante mejorar la resolución e indicar cuando se tratan de captura de pantalla propia.

      Ejp:

      Interfaz de captura de dato de APIFY. Captura propia

    30. El argumento del scrapping debe indicar que:

      • es una zona gris.
      • lo están usando compañias para alimentar modelos de IA
      • esta tesis permite que se pueda usar a pequeña escala, sin revelar información privada de los perfiles y mirando los metadatos más que los datos publicados.
      • Se respetan los terminos y condiciones de Twitter, pues no se replican los trinos individuales de manera pública, sino que se entrega información sobre la cantidad de datos scrapeados por terceros
    31. Contenido de cada capítulo

      Estos contenidos deben corresponder a la tabla de contenido. Parecieran hechos de manera automatizada, sin conocer los contenidos de la tesis. Sin una introducción clara, es imposible incorporar varios de los cambios solicitados por las jurados.

    32. Se define el tema de investigación y se reformulan los objetivos y preguntas de la investigación en respuesta a la evolución del acceso a API.

      No. En la introducción se presenta la investigación al lector.

    33. Como primer paso, planeamos utilizar la API de Twitter para recopilar datos completos sobre las interacciones de los candidatos a lo largo de sus campañas para la Alcaldía de Bogotá. Sin embargo, los cambios en las políticas de acceso a la API, como restricciones, han hecho reevaluar nuestra estrategia de recopilación de datos.

      Se debe redactar en pasado y en impersonal:

      planeamos ~> se planeó.

      han hecho revaluar ~> hicieron revaluar

      Y se debe mantener ese estilo a lo largo de toda la tesis.

    34. API (Interfaz de Programación de Aplicaciones): Conjunto de definiciones y protocolos que permiten la comunicación entre diferentes aplicaciones de software.

      El glosario es un capítulo en sí mismo y va antes de los anexos.

      La introducción debe tener un título en la versión HTML.

    35. Segmentación de Audiencia: Proceso de dividir a la audiencia en grupos más pequeños basados en características comunes para personalizar el contenido y mejorar la efectividad de la comunicación. Algoritmo: Conjunto de reglas y procedimientos definidos para resolver un problema o realizar una tarea específica.

      El glosario debe estar en estricto orden alfabético. No puede seguir, después de la "S", términos que empiezan por "A".

    36. Marco teórico

      Crear una subsección para cada uno de los conceptos importantes:

      • gobernanza y apertura de la información
      • Calidad del dato,
      • Microdatos,
      • Giro computacional,
      • investigación reproducible y su importancia.
    37. (Integra la adecuadacion al proposito y fidelidad para decir como se integro en la tesis con el fin de espicificar cual fue la calidad de los datos esperados y dar a co)

      Integrar la adecuación y la fidelidad como componentes de los elementos que tendremos en cuenta para la definición de calidad del microdato de Twitter. Es decir que miraremos cuánta información se puede extraer de distintos scrappers de Twitter y cómo esta tiene usos posibles en el análisis del discurso político

    38. La Wikipedia (2024)

      Ir a las fuentes primarias citadas en el artículo, dado que es una fuente secundaria.

    1. application of computational approaches to support archival practice for the creation and preservation of reliable and authentic records and archives, investigating the use of such methods for (partially) automating or assisting archival processes such as appraisal, description, and more.
    2. some theoretical and practical issues around infrastructure new needs in the education and training of future (digital) archivists

      Hacer la traducción de la siguiente gráfica.

    3. brought together experts from areas of theoretical and applied computer science with representatives of the archival problem-space to explore new ways of supporting archive professionals in managing and preserving records at scale.
    4. There are four categories for the value the digital archive offers its users

      Traducir esta página

    5. According to The National Archives’ Digital Strategy, digital technologies are one of the biggest challenges for archives, because of the changing nature of both the record and record-keeping practices. Digital is profoundly shaping what types of records are created and captured, and transforming how records are accessed and used. At the same time, the potential for applying computational methods and tools within archives and, more fundamentally, for integrating ‘computational thinking’ and ‘archival thinking’, has led some researchers to identify computational archival science as a new field of study.
  6. Jun 2024
    1. Estos fueron los métodos que usé para resolver el problema de la batería en mi portátil, que se manifestó una vez le actualicé la RAM de 8 a 24 GB (agregué 16 GB).

      Finalmente removí la batería externa, apliqué el reset de hardware y dejé el portátil con el cargador aplicado a la batería interna. Finalmente volvió a cargar.

    1. La siguiente narrativa de datos examina la información obtenida a través de la extracción de datos. El objetivo es evaluar el nivel de detalle proporcionado por diversas técnicas de “scrapping”, específicamente en relación con los tweets, utilizando los metadatos incluidos en cada conjunto de datos extraído.

      Definir los dos dimensiones del análisis que utilizamos para la investigación:

      1. Dimensionalidad: es decir la cantidad de datos, referidos a distintos elementos (autor, hashtags, media, etc) que proporciona la fuente de datos.

      2.Densidad: es decir la cantidad de datos que se encuentran agrupados por cada dimensión (cuánta información hay sobre el autor, cuánta sobre los hastags, cuanata sobre los media, etc).

    2. Anexos

      Antes de los anexos falta un apartado de recomendaciones:

      • ¿Cuáles fueron los límites de esta tesis? por ejemplo en el análisis de información arbórea, las dificultades respecto al cambio de términos y condiciones de Twittter/X? etc.
      • ¿Cómo se espera que las investigaciones futuras y/o el proceso formativo en pregrado pueda contribuir a superar las limitaciones pasada o construir con base en lo que se hizo acá?
    3. respuestas injustificadas, aún es necesario

      injustificadas, incorrectas o con justificaciones falsas. Aún es necesario...

    4. el estudio analizó la calidad de los microdatos recopilados de Twitter/X durante las elecciones para la Alcadia de Bogotá 2023, concentrándose en los perfiles de los candidatos Gustavo Bolívar y Juan Daniel Oviedo. Para extraer datos utilizando herraminetas como Apify, TwitterScraper y Squeaker

      Ampliar esta primera parte hablando de la calidad del dato extraído, no de la herramienta. Por ejemplo, indicar que se definieron dos tipos de variables para los datos: la dimensionalidad (cuántos datos vienen) y la densidad (cuando subdatos están incluidos en cada dato anterior) y desde allí indicar cuál de las tres fuentes tiene mayor densidad y dimensionalidad.

    5. Durante el proceso, se identifico que Squeaker era la herramienta más exitosa, dado que recopila una amplia variedad de propiedades de tweets y al mismo tiempo ofrece datos completos y relevantes. A pesar que la recopilación de datos fue más laboriosa y llevó más tiempo, la calidad fue superior. Apify ha demostrado su capacidad para recopilar automáticamente volúmenes masivos de datos, lo que facilita su categorización y recopilación. Sin embargo, en comparación con Squeaker, tenía ciertas deficiencias en la cantidad de datos recopilados. Finalmente, se determinó que TwitterScraper, que es sencillo, facil de usar y con la mejor interfaz, era el menos exitoso en la recopilación de datos, lo que implica limitaciones en la profundidad del estudio. El uso de estas herramientas proporcionó una variedad de datos para analizar los microdatos durante la campaña electoral, enfatizando la importancia de elegir la herramienta adecuada según las necesidades únicas de la investigación.

      Esta parte de acá puede mejor colocarse como conclusión 3, pues está referida a las herramientas de extracción.

    6. La metodología rigurosa y metódica utilizada en la selección y configuración de las herramientas, así como el diseño de criterios y filtros de búsqueda, permitieron un examen exhaustivo y consistente de los datos obtenidos. Esta investigación proporciona información vital sobre la dinámica de la campaña política, así como sobre la calidad de los datos encontrados en los tweets.

      Esta parte vuelve y dice de otra manera lo dicho ya antes. Es mejor reemplazar esta conclusión por otra que hable de lo que se quería lograr en el objetivo específico 2.

    7. Además, se ha construido y documentado rigurosamente una metodología, comenzando con la configuración inicial del entorno y terminando con el análisis de datos. Esta extensa documentación del procedimiento de configuración del entorno reproducible garantiza que los resultados obtenidos sean replicables y consistentes, lo que contribuye a la solidez y confiabilidad del estudio.

      Esto debería hacer parte de la conclusión 2, que está referida al objetivo específico del entorno de investigación reproducible.

      No es necesario indicar repetidamente que la investigación o su metodología son rigurosas. Si ya se dijo antes, se puede omitir su mención posterior.

    8. que inspire

      que, el autor espera, inspire y oriente ...

    9. exhaustivo y extenso de mucho

      puntual de algunos

    10. transparencia y verificabilidad de nuestro estudio

      ¿cómo ocurrió esto?

    11. Cada una de estas tecnologías ha sido cuidadosamente elegidas y diseñadas para mejorar cada etapa del proceso, desde la recopilación de datos hasta el análisis final.

      esto ya lo dijiste en el párrafo inmediatamente anterior

    12. del estudio

      de los estudios posibles que se puedan hacer con datos extraídos con esta herramienta.

    13. menos exitoso

      más limitado

    14. omo

      Como

    15. Esta técnica nos permitió acceder y estudiar cada aspecto de forma separada y sistemática, permitiendo una investigación más profunda de la comunicación online.

      Esto no se hizo. Sugiero cambiar por

      Con esta herramienta se pudo empezar a visualizar los datos arbóreos extraídos de Squawker y efectivamente constatar en una aproximación informal, que se trata de uno de los scrappers de mayor calidad de los acá estudiandos. Sin embargo, los límites de tiempo y conocimientos sólo permitieron adelantar cómo importar datos y empezar con algunas visualizaciones. Un estudio posterior de dicha fuente de datos se deja para las recomedanciones (como se muestra en la sección respectiva).

    16. extraer y aplanar

      analizar

    17. examinar

      producir

    18. En este ejemplo, creamos un diccionario llamado dataDensity que simula la densidad de datos para diferentes dimensiones. Comenzamos creando un nuevo diccionario vacío y luego agregamos pares clave-valor al diccionario utilizando el operador at:put:. Cada clave representa una dimensión y cada valor representa la densidad de datos para esa dimensión. Los valores asignados son arbitrarios y se ajustan para ilustrar la densidad de datos para cuatro dimensiones (‘Dimensión1’, ‘Dimensión2’, ‘Dimensión3’ y ‘Dimensión4’). Una vez que hemos poblado el diccionario con estos valores, lo retornamos. En resumen, este ejemplo demuestra cómo usar un diccionario en Pharo Smalltalk para organizar datos y acceder a ellos mediante claves asociadas con valores específicos. Los diccionarios son herramientas valiosas para la gestión eficiente de datos en aplicaciones

      Esta parte y sus gráficas deberían ir en los anexos.

    19. ——# Análisis de la calidad de los microdatos extraídos

      Esto debería ser una sección

    20. Zttlr:

      Zettlr

    21. Figura 21: Repositorio publico

      Repositorio público con la diferencia entre dos versiones sucesivas de la tesis.

    22. Figura 1: Hypothesis

      Explicar en el pie de figura cómo se está usando la herramienta. Por ejemplo:

      Hypothesis, siendo empleada para los comentarios y corrección por parte del tutor y la realimentación al estudiante.

      No todas las imágenes pueden empezar por "Figura 1", sino que su numeración debe ser sucesiva, teniendo en cuenta el número del capítulo (ejemplo figura 1.1., figura 2.1) o simplemente un sucesivo (figura 1, figura 2, etc).

    23. Figura 1: Eisvogel Templane

      Este pie de figura no corresponde a esta gráfica.

    24. Figura 1: Scoop

      Una mejor captura de pantalla de Pandoc debería mostrar cómo se pasa de un formato a otro. Por ejemplo de Markdown a PDF.

    25. ## Pandoc

      Convertirlo a sección

    26. Figura 1: WindTerm

      Explicar cómo se usa la herramienta en la captura de pantalla, bien sea en el pie de la figura o en un breve párrafo justo después de ella.

    27. Ahora se instala MiniDocs. Ahora a descargar MiniDocs que es un sistema para mejorar las capacidades de documentación de Lepiter.

      Editar estos dos párrafos.

    28. ## Grafoscopio

      Esto debería ser un título.

    29. Figura 1: Uso de ChiselApp

      Explicar esta gráfica en el párrafo anterior, como se indicó en la anotación del párrafo anterior.

    30. te permite

      Es mejor no tutear en la redacción para hacerla más formal durante la tesis.

    31. Scoop

      Cada herramienta debería estar resaltada en negrilla para mejorar la legibilidad

    32. # Desplegando un entorno de investigación reproducible

      Esto de acá debería ser una sección

    33. varias fas

      varias fases

      Agregar el pie de imágen, indicando que se tomó de Luna 2019, basado en Leinonen 2008.

    34. claidad

      calidad

    35. En este estudio, se destaca la importancia de la investigación reproducible y la narrativa de datos para garantizar la transparencia, verificabilidad y validez de los hallazgos. La reproducibilidad permite a otros investigadores verificar y validar los resultados, fortaleciendo la credibilidad de los estudios. La narrativa de datos proporciona un marco coherente para interpretar los resultados y comunicarlos efectivamente.

      Acá vale la pena ampliar un poco el párrafo y al menos agregar una referencia bibliográfica que sustente lo dicho. Las dos cosas se pueden resolver incorporando elementos de:

      http://www.practicereproducibleresearch.org/

      Por ejemplo de los capítulos de prefacio, introducción, así como el significado más preciso de replicabilidad y reproduciblidad computacional del capítulo de lecciones aprendidas

  7. May 2024
    1. Gráfico representativo de los datos

      Mejorar explicación. Ver comentario en gráfica anterior

    2. Gráfico representativo de los datos

      Explicar mejor qué se está representando: Cantidad de datos agrupados contra tipo de dato (no es "Nombre del ítem").

    3. Evaluaremos varias características de los datos obtenidos, como la dimensionalidad de los tweets, la densidad de los datos y la frecuencia de los hashtags, para obtener información valiosa sobre la calidad de los microdatos.

      Sólo evaluamos dimensionalidad (cuántos datos hay) y densidad (que tan profundos son los datos, es decir cuántos datos agrupan). Nunca evaluamos la frecuencia de los trinos. Vale la pena definir acá qué es cada uno: dimensionalidad y densidad, y luego sí pasar a la narrativa como tal.

    4. Diccionarios Pharo Smalltalk Los diccionarios Pharo Smalltalk son estructuras de datos que le permite emparejar de forma rápida y eficaz claves distintas con valores coincidentes. Los diccionarios Pharo emplean una tabla hash interna para almacenar entradas y están diseñados para ofrecer acceso rápido a la información. Además, los diccionarios Pharo permiten almacenar en ellos cualquier tipo de datos, incluidas claves y valores. Esto le permite una gran flexibilidad al utilizar Pharo para trabajar con varios tipos y estructuras de datos. Los diccionarios proporcionan una variedad de operaciones fundamentales, incluidos métodos para recorrer entradas del diccionario, además de agregar, eliminar y recuperar elementos. Los diccionarios se utilizan ampliamente en Pharo Smalltalk para una amplia gama de propósitos, incluida la organización de datos, la implementación de algoritmos efectivos y la gestión de asociaciones clave-valor en aplicaciones complejas. Esto se debe a su adaptabilidad y eficiencia.

      Enviar a los anexos.

    5. velocidad, capacidad de recopilar datos en tiempo real y capacidad de superar cualquier limitación potencial de la plataforma de redes sociales.

      Nunca evaluamos la velocidad y de hecho la tabla comparativa no habla al respecto de nada de eso. Tampoco evaluamos la posibilidad de superar "cualquier limitación" en generar evitar el uso de absolutismos (nunca, siempre, cualquier, etc).

    6. J.son

      JSON

    7. Squawker durante el estudio para el trabajo de guardo. La falta de una función “Batch Save” para explorar perfiles. Se tomó la decisión de abrir una línea de comunicación con los desarrolladores vía GitHub por medio de los comentarios de dicho aplicativo.

      Retomar desde acá la narrativa sobre el análisis que se hizo con Squawker.

    8. Tesis pregrado Felipe Vera: FileLocator alias tutor

      Pasar a los anexos

    9. utilizarán

      utlizaron

    10. Para crear un entorno de investigación reproducible en una computadora, con sistemas operativos Windows GNU/Linux o MacOS, se instalan en ella los recursos necesarios para construir dicho entorno.

      Cambiar por:

      Si bien hemos mostrado, en las secciones previas las herramientas individuales y sus usos en esta investigación. Este apartado se encarga de mostrar los flujos de trabajo que conectaron las herramientas.

    11. Hypothesis

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis. En particular, mostrar cómo se uso para gestionar comentarios de mejoras sobre la tesis.

    12. Pandoc

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis. Por ejemplo, indicando que se usó para convertir de formato Markdown a HTML y PDF, aplicando diferentes plantillas para cada formato.

    13. Zettlr

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis.

    14. WindTerm

      Agregar captura de pantalla y explicación sobre para qué fue usada en el contexto de la tesis.

    15. Grafoscopio es una herramienta interactiva flexible de visualización de datos y documentación.

      Agregar captura de pantalla de Grafoscopio:

    16. ExoRepo es una utilidad que facilita la instalación de repositorios hospedados en infraestructuras de código autónomas.

      Esta frase debería ir arriba, antes del código de la instalación. También se debería indicar dónde se está ejecutando el código de la instalación.

    17. Pharo ofrece un entorno interactivo y un sistema de desarrollo integrado, lo que facilita el diseño de aplicaciones complejas. GT y Pharo trabajan juntos para brindar una experiencia de desarrollo única y altamente personalizada.

      Agregar gráfica y explicación breve de cómo se usó en el contexto de la tesis, siguiendo el ejemplo de Fossil.

      Glamorous Toolkit usado para analizar trinos

    18. ChiselApp es una plataforma de alojamiento y lanzamiento de proyectos que ejecuta Fossil SCM como sistema de control de versiones. Permite a los usuarios realizar un seguimiento de los cambios en los archivos, comunicar el progreso y la evolución del trabajo académico y guardar los datos recopilados mediante herramientas de scraping. ChiselApp te permite crear repositorios públicos y privados, lo que facilita el mantenimiento y la colaboración en proyectos académicos.

      Como había dicho ya en las sesiones presenciales, es importante agregar una pantalla de cada aplicación en el contexto en el que fue usada. Por ejemplo, para el caso de Fossil, la imagen podría ser

      Línea de tiempo con ramas del tutor y tronco del repositorio

      Fossil fue utilizado para alojar los distintos archivos que configuran el escrito de la tesis, incluyendo tanto la prosa como las narrativas de datos, en un repositorio público y otro privado se creó para los datos extraídos con los distintos métodos. Así mismo, se empleó para publicar las versiones en borrador en distintos formatos (HTML y PDF) y para hacer comentarios para control de avances, mejoras y correcciones.

      La gráfica de arriba muestra el uso de Fossil y las ramas del Tutor y el tronco que permitían trabajar de manera colaborativa en los procesos de acompañamiento de la tesis.

    19. Publicando reproducible: Como exportamos el documento desde Markdown a HTML y PDF y cómo se hacen con Fossil.

      Después del listado breve, indicar que se mostrará en detalle cada una de las herramientas y cómo fueron instaladas/utilizadas durante la tesis.

    20. siguientes elementos

      Agregar una frase corta al frente de cada uno indicando qué hacen. Por ejemplo:

      1. Scoop: Gestor de instalación de software libre, de código abierto y/o libre distribución.
      2. Fossil y ChiselApp: Sistema de control de versiones y publicación de borradores de la tesis y sus narrativas de datos.

      y así suscesivamente. De esta manera el lector no se queda con un listado de nombres que no sabe qué significan.

    21. Luna, 2023

      Luna, 2019, citando a Leinonen (2008).

    22. Los resultados de la extracción de datos en Twitter/X se entregaron a las partes interesadas para su aprobación, lo que permitió realizar evaluaciones adicionales dentro de los parámetros del proyecto.

      Se iteró en los prototipos, mirando qué tanto ellos podían efectivamente dar cuenta de la calidad de los datos y qué elemento algorítmicos completaban la narrativa o donde estaban las limitaciones, bien en los conocimientos para mejorar los analisis o bien en las herramientas para dicho analisis.

    23. Luna, 2023

      Luna, 2019, citando a Leinonen (2008).

    24. Utilizando técnicas de minería de datos para descubrir patrones y tendencias de comportamiento, generando y organizando el volumen masivo de datos textuales creados en Twitter/X durante las candidaturas a la alcaldía de Bogotá en cooperación con las partes interesadas.

      Esta parte no se distingue mucho de la anterior. En realidad, acá no hicimos diseño participativo, sino que pasamos directamente a la fase de diseño de producto, pues no sometimos nuestros prototipos a ninguna pluralidad de personas, por ejemplo a una comunidad.

    25. Luna, 2023

      Si se está citando mi tesis doctoral, debería ser (Luna, 2019).

    26. Luna, 2023

      Si se está citando mi tesis doctoral, debería ser (Luna, 2019).

    27. Imagen representativa de la metodológia

      Se debe indicar que esta imagen fue tomada de mi tesis o de mi microwiki.

    28. Este proyecto se guía por una metodología de diseño basada en investigación que se caracteriza por la creación de prototipos continuos. Este enfoque, en línea con el pensamiento de diseño y las epistemologías diseñistas, reconoce el diseño como un conocimiento en red, capaz de incorporar métodos cuantitativos, cualitativos, etnográficos e investigación acción participativa.

      Es importantísimo decir que esta parte del texto es tomada casi literalmente de mi wiki, citando la fuente e indicando que dicho contenido fue cedido al dominio público por mí.

    29. La mineria de datos es importante para sacar conclusiones interesantes a partir de conjuntos de datos masivos, que se aplica con gran éxito al analizar redes sociales como Twitter/X. Durante este proceso se recopilan y procesan cantidades masivas de datos generados por los usuarios, como tweets, encontrando patrones y tendencias (Blázquez., 2019) . La minería de datos se utiliza para detección de tendencias en tiempo real y el análisis de los tweets (Blázquez., 2019). Con el uso de esta técnica, las personas pueden clasificarse en varias categorías según sus intereses y comportamientos. También se pueden identificar eventos cruciales o emergencias.

      Si bien usamos minería de datos para extraer los datos, lo clave no fue su tamaño, sino su calidad. Este párrafo debería expresarlo. También es necesario plantear elementos de ciencia abierta y reproducible en los tipos de estudios que estamos realizando, pues es una parte importante del problema y de los objetivos específicos y no hay nada al respecto en la justificación.

    30. Su rival, político

      integrar en párrafo anterior

    31. esta empresa

      esta empresa ~~> esta empresa,

    32. podría tener

      ~~podría tener~~ un impacto en los investigadores y desarrolladores ~> <ins>tuvo</ins> un impacto en los investigadores y desarrolladores (por ejemplo, extendió el tiempo de esta tesis más allá de lo habitual).

    33. Este estudio se centra en examinar cómo las redes sociales han afectado las campañas políticas, particularmente las de las elecciones regionales del año 2023 en Bogotá. La información política que Gustavo Bolívar y Juan Daniel Oviedo publicaron en Twitter (ahora denominada ”X” y que a lo largo de esta tesis se denominará Twitter/X) a lo largo de su campaña será analizada mediante minería de textos.

      Si bien hicimos minería de texto, no fue para examinar cómo las redes sociales afectaban campañas, sino que nos enfocamos en la calidad de los datos extraídos de Twitter.

    34. Algunas de estas cortes se han destacado a nivel mundial como precursoras en el uso de tales medios. En cambio, las menos influyentes muestran gran dispersión en torno al nivel de actividad. Asimismo, exploramos de manera preliminar la relación entre el nivel de confianza en los poderes judiciales y la intensidad del uso e influencia de las cortes en las redes
    35. Las redes sociales asentadas en internet plantean opciones, pero sobre todo desafíos, a la política convencional. En este artículo se discute el concepto de red 2.0, se describe el auge de las redes sociales y se apuntan algunas de sus limitaciones, en especial para promover la deliberación de ideas.
    36. Con la revolución televisiva y la llegada de las redes sociales, la comunicación política ha experimentado una gran transformación, tanto en España como en el resto del mundo. TikTok ha sido la última plataforma en irrumpir en el tablero político, mediático y electoral. Estos trabajos exploran el papel que TikTok juega en la comunicación política actual, así como las posibilidades que brinda a la llamada espectacularización y el grado de profesionalización con el que trabajan las distintas formaciones (Fernández, 2022)

      Esta parte fue tomada casi que literalmente de https://www.redalyc.org/journal/4761/476170165011/ sin ninguna atribución.