Fiestas por el 29 aniversario KDE
Como ya sabréis, el 14 de octubre es una fecha especial para la Comunidad KDE y siempre intentamos celebrar. Por ello se están organizando eventos presenciales para celebrarlo, en otras palabras, fiestas por el 29 aniversario KDE. ¿Te interesaría estar con gente involucrada con el proyecto? Sigue leyendo.
Fiestas por el 28 aniversario KDE
Está volviendo a ser costumbre, un año más la Comunidad KDE decide que es un buen momento para reunirse de forma local para celebrar que su proyecto cumple años. Se hizo un gran evento por el 25 aniversario, saliendo de la pandemia, y se ha ido replicando con otras excusas, como el megalanzamiento de Plasma 6, el 28 aniversario y este año se repite para el 29, una forma de mantener la inercia para el año que viene, que celebramos nuestra tercera década.
Es hora de retomar la sana costumbre de reunirnos y ya hay programadas algunas. De momento, se tienen previstas las siguientes actividades:
Como veis, en España ya tenemos una pero esperamos que alguien se anime, así que estad atentos. A ver si los clásicos de Valencia, Barcelona o A Coruña dan el paso. Y por cierto, si se hace un poco más tarde, no hay problema.
Más información: KDE
Nacimiento del proyecto KDE
En la mesa que podemos ver en la imagen inferior Matthias Ettrich y Martin Konold hablaron sobre la creación de un proyecto que iba a ser parte fundamental del Software Libre y de la vida de cientos de desarrolladores.

Un poco más tarde, Mattias redactó y envió un 14 de octubre de 1996 el correo electrónico que a anunciaba el nacimiento de KDE y pidiendo desarrolladores que se involucraran en él. Seguidamente, creó la primera lista de correo del Proyecto KDE, que fue la principal vía de comunicación de los desarrolladores durante un tiempo.
Desde entonces ha llovido mucho. Y KDE ha pasado ser «The Kool Desktop Environment (KDE)» a ser una Comunidad donde tienen cabida todo tipo de personas con todo tipo de talentos, y no todos necesariamente ligados con la programación.
La entrada Fiestas por el 29 aniversario KDE se publicó primero en KDE Blog.
Planet News Roundup
This is a roundup of articles from the openSUSE community listed on planet.opensuse.org.
The below featured highlights listed on the community’s blog feed aggregator are from October 4 to 10.
The week’s Planet highlights Akademy 2025 in Berlin, unbricking ESP8266 boards on Linux, openSUSE Leap’s liftoff, the FSF’s 40th anniversary, and more.
Here is a summary and links for each post:
Photo from the Grupo Akademy 2025 Berlin
KDE Blog shares the traditional group photo from Akademy 2025, which was held in Berlin from Sept. 6–11, and captures the spirit, camaraderie, and energy of the community during a week of talks, workshops, and collaboration.
The syslog-ng Insider 2025-10: Values; BastilleBSD; Debian
The October syslog-ng newsletter highlights the project’s core values, running syslog-ng in BastilleBSD, and announces updates to the Debian and Ubuntu blogs.
Cañas Podcast, is Free, Akademy Spain and JPOD in KDE Express 56
KDE Blog highlights KDE Express episode 56, where David Marzal covers upcoming Spanish-speaking free software events like Cañas y Podcast, esLibre, Akademy_ES, and JPOD that highlights the vibrant Spanish-speaking KDE community.
Kwlejka for Plasma. Simply a text area for your desktop
Victorhck introduces Kwlejka, a minimalist KDE Plasma widget, that provides a simple text area on the desktop for storing, pasting, and reusing snippets without needing a dedicated text editor.
Unbricking an ESP8266 with esptool.py on Linux
CubicleNate shares a quick guide on recovering a bricked ESP8266 NodeMCU board using esptool.py on Linux, covering prerequisites, USB permissions, and flashing firmware like WLED.
Mindtrek 2025
Timo Jyrinki reports from Mindtrek 2025 in Tampere, Finland, which is a conference centered on “OpenTech: Towards Digital Sovereignty”; the blog highlights SUSE’s talk on digital sovereignty, and discussions ranging from HPC federation to open source in education.
GSoC 2025, Building a Semantic Search Engine for Any Video
Akash Kumar shares his GSoC 2025 project with openSUSE, which is a semantic video search engine that uses AI models and vector databases to let users search videos by content; it’s not just for titles or tags.
First impressions of the 11th Annual Wikimedia Spain Conference
KDE Blog shares positive first impressions from the 11th Wikimedia España Annual Conference in Valencia, highlighting talks, the organization, and capturing the spirit of the community.
Budapest Audio Expo 2025
Peter Czanik reviews Budapest Audio Expo 2025, praising Hungarian-made audio systems from Dorn/Heed, NCS Audio/Qualiton, and Popori/72 Audio for rivaling global high-end sound at more affordable prices.
KDE Neon is now testing Plasma 6.5 beta 2
KDE Blog reports that KDE neon is now testing Plasma 6.5 Beta 2 and preparing for an Oct. 21 release. The blog encourages users to try the beta and report bugs for a polished final version.
DuckDuckGo search engine donates money to various organizations
Victorhck reports that DuckDuckGo has once again donated funds to organizations worldwide that are supporting privacy, digital rights, open source, and a safer, more democratic internet. The amount donated this year $1.1 million to 30 digital rights and privacy-focused organizations.
openSUSE Leap Ready for Liftoff
openSUSE News highlights community use cases ahead of Leap 16, including aviation tracking with ADS-B receivers, showcasing the distribution’s stability, versatility, and readiness for both hobbyist and enterprise deployments.
First update of KPhotoAlbum 6, adjusting the new version
KDE Blog covers the release of KPhotoAlbum 6.1.0, the first update since its port to Qt6/KF6, which brings new options with usability improvements and bug fixes for the lightweight photo organizer.
The Free Software Foundation turns 40
Victorhck celebrates the 40th anniversary of the Free Software Foundation. The blog piece reflects on its history, core freedoms, global impact, and ongoing campaigns defending users’ digital rights and software freedom.
Plasma 6.5 beta 2 – This week in Plasma
KDE Blog shares a Spanish translation of Nate Graham’s “This Week in Plasma,” covering Plasma 6.5 Beta 2 with major bug fixes, UI improvements, and updates across Plasma, Frameworks, and Discover.
View more blogs or learn to publish your own on planet.opensuse.org.
Request Workflow: Accept & Forward by Default and Clearer History
Foto de grupo Akademy 2025 de Berlín
No hay evento que se precie que no tenga su instantánea comunitaria, y las reuniones de la Comunidad KDE no puede ser una excepción. He aquí pues la foto de grupo Akademy 2025 de Berlín que se realizó del 6 al 11 de septiembre y que podemos encontrar en el artículo de sobre el evento publicado en la misma página del evento.
Bien sea para mostrar al mundo toda la gente que asiste al evento, bien sea para inmortalizar el momento o simplemente para reunir a la mayor parte de los asistentes en un lugar, las fotografías de grupo son de obligada realización en cualquier reunión.
La foto de grupo es un momento especial en todas las Akademy, todo el mundo suele estar de buen humor y se suceden las bromas. También es un gran momento para presentar y dar a conocer a asistentes de proyectos diferentes.
Foto de grupo Akademy 2025 de Berlín
Como hemos comentado, la Akademy de este año tuvo lugar en Berlín, Alemania cuya modernidad y su atmósfera contracultural vanguardista encajaron muy bien con el ánimo actual de la comunidad KDE.
De esta forma, mientras los desarrolladores voluntarios avanzan con tecnologías que incluso corporaciones multimillonarias luchan por imitar, existe una sensación general de que algo grande está en el horizonte. Con migraciones importantes y posibles adopciones en administraciones públicas, sin mencionar las tecnologías KDE abriéndose camino en todo tipo de dispositivos, parece que finalmente estamos a punto de llegar a la corriente principal y llevar el software libre a la población general.
Teniendo todo esto en cuenta, la comunidad se reunió en la Technische Universität de Berlín para una intensa semana de actividades relacionadas con KDE y, como se puede comprobar un buen número de asistentes han participado en la Akademy de Berlín y que bien seguro han cargado las pilas para seguir trabajando para y por KDE para crear el mejor Software posible para todo el mundo.
Si pincháis en la imagen podréis verla un poco más grande.

¡KDE Rocks!
¿Qué es Akademy?
Para los que no lo sepan, Akademy es el evento de la Comunidad KDE que aúna en una gran conferencia todo tipo de simpatizantes de KDE como desarrolladores, diseñadores, usuarios, traductores, promotores. Allí se reunirán a lo largo de una semana para compartir charlas, cenas, ponencias, talleres y, en definitiva, para trabajar juntos.
Es una gran semana que sirve para unir más fuerte los lazos que unen nuestra Comunidad, así como para crear nuevos
La entrada Foto de grupo Akademy 2025 de Berlín se publicó primero en KDE Blog.
The syslog-ng Insider 2025-08: Values; BastilleBSD; Debian
The October syslog-ng newsletter is now on-line:
- The core values of syslog-ng
- Running syslog-ng in BastilleBSD
- Debian and Ubuntu blogs updated
It is available at https://www.syslog-ng.com/community/b/blog/posts/the-syslog-ng-insider-2025-10-values-bastillebsd-debian

syslog-ng logo
Cañas y Podcast, esLibre, Akademy_ES y JPOD en KDE Express 56
Me alegra presentaros un nuevo episodio KDE Express, esta vez dedicado a «Cañas y Podcast, esLibre, Akademy_ES y JPOD en KDE Express 56» donde David Marzal nos ofrece una avalancha de noticias. Es que la Comunidad KDE, las otras del Software Libre y el movimiento de podcasting libre no paran.
Cañas y Podcast, esLibre, Akademy_ES y JPOD en KDE Express 56
Comenté hace ya bastante tiempo que había nacido KDE Express, un audio con noticias y la actualidad de la Comunidad KDE y del Software Libre con un formato breve (menos de 30 minutos) que complementan los que ya generaba la Comunidad de KDE España, aunque ahora estamos tomándonos un tiempo de respiro por diversos motivos, con sus ya veteranos Vídeo-Podcast que todavía podéis encontrar en Archive.org, Youtube, Ivoox, Spotify y Apple Podcast.

De esta forma, a lo largo de estos más de 50 episodios, promovidos principalmente por David Marzal, nos han contado mucho de todo: noticias, proyectos, eventos, etc., convirtiéndose (al menos para mi) uno de los podcast más importantes para la Comunidad KDE en habla hispana.
En palabras de David el nuevo episodio de KDE Express se presenta de la siguiente manera:
La comunidad se hace gracias a eventos presenciales de este tipo, mi más enérgica enhorabuena a la organización de estos eventos:
- Cañas y Podcast 2a Edición
- JPOD Terrassa (Barcelona), los 24, 25 y 26 de octubre
- esLibre en Melide (Galicia) el 17 y 18 de abril
- AkademyES especial 25 (2006 Barcelona) y 30 aniversario
Y todos mis ánimos a quien esté en disposición de asistir, intentadlo que seguro que os lleváis una experiencia enriquecedora.
Además, y como siempre, os dejo aquí el listado de los episodios. ¡Disfrutad!
Por cierto, también podéis encontrarlos en Telegram: https://t.me/KDEexpress
La entrada Cañas y Podcast, esLibre, Akademy_ES y JPOD en KDE Express 56 se publicó primero en KDE Blog.
Kwlejka para Plasma. Simplemente un área de texto para tu escritorio
El widget Kwlejka para el escritorio Plasma de KDE te ofrece simplemente un área de texto en el que pegar, guardar texto en tu escritorio. Simple y útil

Por Mastodon me entero de la existencia de este reciente widget para el escritorio Plasma de KDE. El widget se llama Kwlejka (wklejka + KDE) y ofrece un espacio de texto en el que copiar y dejar almacenado texto, en un sitio muy a mano para utilizarlo cuando lo necesitemos. Y borrarlo cuando ya no lo queramos.
Los casos de uso de este sencillo widget pueden ser variados.
Imagina que no tienes habilitado el historial del portapapeles, imagina que quieres copiar primero un texto y después otro, pero seguir disponiendo del primero para volverlo a utilizar.
Imagina que quieres copiar un texto, nombre o concepto, para más adelante buscar información al respecto. O pon tu el ejemplo de uso que prefieras.
Para todo eso o para lo que se te ocurra en tu caso específico, está este nuevo widget. Simplemente un espacio de texto en el que ir pegando textos, los que vayamos necesitando y borrarlos cuando ya no los necesitemos.
El widget Kwlejka está publicado bajo una licencia GPLv2.0 y está disponible para instalar desde el repositorio git en Codeberg del autor.
Para instalarlo es muy sencillo. Clonamos el repositorio y copiamos la Kwlejka dentro de la ruta home/.local/share/plasma/plasmoids
git clone https://codeberg.org/dcz/kwlejka
mkdir -p ~/.local/share/plasma/plasmoids/
cp -a kwlejka/kwlejka ~/.local/share/plasma/plasmoids/
Ya estará disponible para añadirlo en Plasma desde la sección de widgets en el propio escritorio o en panel, lo que prefiramos. Vemos que el icono es el mismo del portapapeles y su uso es muy simple.
Simplemente pinchamos sobre él y escribimos o pegamos el texto que queremos. Al utilizar uno de los huecos que hay para el texto, automáticamente nos abre otro disponible para otro texto… Y así cuantos necesitemos…
Las podemos borrar cuando no las necesitemos, o al cerrar sesión se eliminarán todos los textos copiados.
Es un widget muy sencillo, pero que quizás en tu caso puede ser muy útil para almacenar un texto de manera temporal, sin necesidad de abrir un editor de texto.
Y ya de paso, os recuedo que también que podemos tomar notas de texto más largos en una pestaña del navegador con tomanota:
Por si esta utilidad también os puede resultar útil. ¿Te parece útil Kwlejka en tu caso? Utiliza los comentarios para aportar tu opinión.

Unbricking an ESP8266 with esptool.py on Linux
Mindtrek 2025
The yearly Mindtrek 2025 was arranged again at Tampere, Finland, with some nice changes to the format. The full program was divided into three tracks – in addition to the former busines and public sector tracks, there was also a track for developers! I spend most of the time in the new Developers track thanks to interesting talks.
SUSE also had a presentation about digital sovereignty, including operations sovereignty, business continuity and overall making a great case for why open source is not a plus, it’s a must.
The keynote of the conference was by Peer Heinlein about OpenCloud and how it relates to NextCloud, and what happened to OwnCloud – and how all of that binds to how Europe can go forward to be self-sustaining in the digital world. So, the same theme there as well, which is not a surprise given the main theme for the conference was OpenTech: Towards Digital Sovereignty.
As for the developers track, there was an interesting talk about how open source was key in enabling entering to German education market for Opinsys/Puavo. Another talk was about studies on using AI, interesting in lack of negativity and having certain neutrality, even if the findings were negative. There was a talk about HPC federation in Europe’s compute ecosystem, how is running Meson project like in practice, a low-level presentation about TPM2 and then lastly some GIS spatial information open source company information.

All in all, the conference had me have lots of good talks with many of the presenters and other people, and also a nice, comfortable evening program where talks further continued for hours after hours.

Thanks to COSS for once again excellent conference, and I hope to see you all next year!

GSoC 2025, Building a Semantic Search Engine for Any Video
Hello, openSUSE community!
My name is Akash Kumar, and I was a Google Summer of Code (GSoC) 2025 mentee with the openSUSE organization. This blog post highlights the project I developed during this mentorship program, which openSUSE and its mentors helped make possible. This summer, I had the incredible opportunity to contribute to the project titled “Create open source sample microservice workload deployments and interfaces.” The goal was to build a functional, open-source workload that could provide relevant analytics for a specific use case.
For my project, I chose to tackle a common but complex problem: searching for content inside a video. This blog post details the outcome of my GSoC project: a full, end-to-end semantic video search engine.
The Problem: Beyond Keywords
Ever tried to find a specific moment in a long video? You might remember the scene vividly - a character gives a crucial speech, or there’s a beautiful, silent shot of a landscape - but you can’t remember the exact timestamp. You end up scrubbing back and forth, wasting minutes, or even hours.
Traditional video search relies on titles, descriptions, and manual tags. It’s limited. It can’t tell you what’s inside the video.
As part of my GSoC deliverable, I set out to solve this. I wanted to build a system that lets you search through a video’s content using natural language. I wanted to be able to ask, “find the scene where they discuss the secret plan in the warehouse,” and get an instant result.
The Big Picture: A Two-Act Play
The entire system is divided into two main parts:
- The Ingestion Pipeline (The Heavy Lifting): An offline process that takes a raw video file and uses a suite of AI models to analyze it, understand it, and store that understanding in a specialized database.
- The Search Application (The Payoff): A real-time web application with a backend API and a frontend UI that lets users perform searches and interact with the results.
Let’s walk through how it all works, step by step.
Part 1: The Ingestion Pipeline - Teaching the Machine to Watch TV
This is where the magic begins. We take a single .mp4 file and deconstruct it into a rich, multi-modal dataset.
Step 1: Deconstructing the Video (Extraction)
First, we break the video down into its fundamental atoms: shots, sounds, and words. I used a series of specialized AI models for this:
-
Shot Detection (
TransNetV2): The video is scanned to identify every single camera cut, creating a “skeleton” of the video’s structure. -
Transcription & Diarization (
WhisperX): The audio is extracted, and WhisperX transcribes all spoken dialogue into text. Crucially, it also performs diarization—identifying who spoke and when, assigning generic labels likeSPEAKER_00andSPEAKER_01. -
Visual Captioning (
BLIP): For every single shot, we extract a keyframe and ask the BLIP model to generate a one-sentence description of what it sees (e.g., “a man in a suit is standing in front of a car”). -
Action & Audio Recognition (
VideoMAE,AST): We go even deeper, analyzing the video clips to detect actions (“talking,” “running”) and the audio to identify non-speech events (“music,” “applause,” “engine sounds”).
At the end of this step, we have a mountain of raw, timestamped data.
Step 1.5: The Human in the Loop (Speaker ID)
The AI knows that different people are speaking, but it doesn’t know their names. This is where a little human intelligence goes a long way. The pipeline automatically pauses and launches a simple web tool. In this tool, I can see all the dialogue for SPEAKER_00, play a few clips to hear their voice, and map them to their real name, like “John Wick.” This simple, one-time step makes the final data infinitely more useful.
Step 2: Finding the Narrative (Intelligent Segmentation)
Searching through hundreds of tiny, 2-second shots isn’t a great user experience. We need to group related shots into coherent scenes or segments. A single conversation might involve 20 shots, but it’s one single event.
To solve this, I developed a “Boundary Scoring” algorithm. It iterates through every shot and calculates a “change score” to the next one, based on a weighted combination of factors:
- Has the topic of conversation changed? (semantic text similarity)
- Have the visuals changed significantly?
- Did the person speaking change?
- Did the background sounds or actions change?
If the total change score is high, we declare a “hard boundary” and start a new segment. This transforms a chaotic list of shots into a clean list of meaningful scenes.
Step 3: Adding a Layer of Genius (LLM Enrichment)
With our coherent segments defined, we bring in a Large Language Model (like Google’s Gemini) to act as an expert video analyst. For each segment, we feed the LLM all the context we’ve gathered—the transcript, the speakers, the visual descriptions, the actions—and ask it to generate:
- A short, descriptive Title.
- A concise 2-3 sentence Summary.
- A list of 5-7 relevant Keywords.
This adds a layer of human-like understanding, making the data even richer and more searchable.
Step 4: Preparing for Search (Indexing)
The final step is to prepare this data for lightning-fast search. We use a vector database (ChromaDB). The core idea is to convert text into numerical representations called embeddings.
The key innovation here is our hybrid embedding strategy. For each segment, we create two distinct embeddings:
- Text Embedding: Based on the transcript and summary. This represents what was said.
- Visual Embedding: Based on the visual captions and actions. This represents what was shown.
These embeddings are stored in ChromaDB. Now, the video is fully processed and ready to be searched.
Part 2: The Search Application - Reaping the Rewards
This is where all the offline work pays off. The application consists of a backend “brain” and a frontend “face.”
The Brains: The FastAPI Backend
The backend API is the engine of our search. When it receives a query, it follows a precise, high-speed process:
- Vectorize Query: The user’s query is converted into the same type of numerical vector using the same model from the indexing step.
- Hybrid Search: It queries ChromaDB twice in parallel—once against the text embeddings and once against the visual embeddings.
- Re-Rank & Fuse: It takes both sets of results and merges them using an algorithm called Reciprocal Rank Fusion (RRF). This is incredibly powerful. A segment that ranks highly on both the text and visual search (e.g., a character says “Look at the helicopter” while a helicopter is on screen) gets a massive score boost and shoots to the top of the list.
- Respond: The backend fetches the full metadata for the top-ranked results and sends it back to the frontend as a clean JSON response.
The Face: The Streamlit UI
The frontend is a simple, clean web interface built with Streamlit. It features a search bar, a video player, and a results area. When you click “Play” on a search result, it instantly jumps the video player to the exact start time of that segment. It’s fast, intuitive, and incredibly satisfying to use.
The Final Result & GSoC Experience
Imagine searching for “a tense negotiation in a warehouse.” The system finds it in seconds because:
- The Text Search matches the dialogue about “the deal,” “the money,” and “the terms.”
- The Visual Search matches the AI captions like “two men sitting at a table” and “a dimly lit, large room.”
- The RRF algorithm sees that both signals point to the same segment and ranks it as the #1 result.
This project was a fascinating journey into the world of multi-modal AI. It demonstrates that by combining the strengths of different models, we can deconstruct unstructured data like video and reassemble it into a smart, searchable, and genuinely useful asset.
I want to extend a huge thank you to my mentor, @bwgartner, and the entire openSUSE community for their support and guidance throughout the summer. Participating in GSoC with openSUSE has been an invaluable learning experience.
The days of aimless scrubbing may soon be behind us. If you’re interested in trying it out or contributing, you can find the entire project on GitHub: https://github.com/AkashKumar7902/video-seach-engine.