Skip to main content

a silhouette of a person's head and shoulders, used as a default avatar

Episodio 8 de Accesibilidad con Tecnologías libres: Magazine veraniego de noticias sobre accesibilidad

A ver si entre este mes de agosto y septiembre me pongo al día con este podcast (ya podéis intuir que son muchos los episodios de retraso que llevo). De momento ya llevo dos seguidos con éste, así que os presento el episodio 8 de Accesibilidad con Tecnologías libres: Magazine veraniego de noticias sobre accesibilidad. Una oportunidad más para conocer las opciones que existen para acercar la tecnología a todo el mundo.

Episodio 8 de Accesibilidad con Tecnologías libres: Magazine veraniego de noticias sobre accesibilidad

Hace más de dos años que presenté este podcast y he dejado pasar demasiado tiempo para seguir promocionándolo. Areglé este error hace un tiempo pero perdía la inercia. Así que vuelvo con nuevos bríos para seguir promocionándolo como se merece.

Me complace presentar el séptimo episodio de Accesibilidad con Tecnologías libres que tiene el siguiente resumen:


Episodio 8 de Accesibilidad con Tecnologías libres: Magazine veraniego de noticias sobre accesibilidad

Transcripción disponibles en steno.fm por si vuestra Podcatcher no los implementa, como estas.

Créditos de la música:

Este podcast tiene licencia Reconocimiento-CompartirIgual 4.0 Internacional (CC BY-SA 4.0).

Más información: Sexto episodio de Accesibilidad con Tecnologías Libres

Podcast Accesibilidad con Tecnologías libres

Episodio 5 de Accesibilidad con Tecnologías libres: Imagen a Texto, mundos virtuales, Joomla y PrestaShop, XFCE y voto electrónico

Jorge Lama, Víctor , David Marzal, Thais Pusada, Pablo Arias, Jonathan Chacon y Markolino son el equipo reunido para crear el podcast Accesibilidad con Tecnologías libres, un podcast para hablar sobre temas de accesibilidad y tecnologías libres.

En palabras de sus creadores:

En informática, la accesibilidad incluye diferentes ayudas como pueden ser las tipografías de alto contraste o gran tamaño, magnificadores de pantalla, lectores y revisores de pantalla, programas de reconocimiento de voz, teclados adaptados y otros dispositivos apuntadores o de entrada de información.

Además, las inteligencias artificiales están empezando a ser un gran aliado para mejorar la accesibilidad en muchos aspectos. Existen podcasts y canales de vídeo que hablan de la accesibilidad centrándose en entornos Windows o de Apple porque son los más conocidos por el público generalista. Pero en este podcast queremos dar a conocer otros aspectos de la accesibilidad y su relación con otras tecnologías menos conocidas.

Tecnologías que consideramos libres y que nos parecen mejores para la sociedad, en muchos casos…

Por supuesto, os invito a visitar la página de Archive.org donde están recogidos el resto de programas y donde nos indican también aquellos que estań subtitulados, aunque creo que al final lo estarán todos:

Créditos de la música:

La música usada ha sido «Evening» de Kevin MacLeod (incompetech.com)
Licensed under Creative Commons: By Attribution 4.0 License
http://creativecommons.org/licenses/by/4.0/

Personalmente, me parece un podcast muy interesante que aborda un tema recurrente en el mundo del Software Libre pero que todavía está lejos de solucionarse. Los diferentes proyectos de escritorio de GNU/Linux implementan cosas pero en muchas ocasiones no están coordinadas realmente con las personas que las necesitan. Esperemos que en los próximos años este aspecto se vaya mejorando y, si ocurre, creo que este podcast tendrá parte de culpa, en el buen sentido de la palabra.

Más información: Accesibilidad con Tecnologías Libres

La entrada Episodio 8 de Accesibilidad con Tecnologías libres: Magazine veraniego de noticias sobre accesibilidad se publicó primero en KDE Blog.

the avatar of Alessandro de Oliveira Faria

Como resolver RTX 5070: “CUDA error: no kernel image is available for execution on the device”


Usuários que compraram placas da nova geração NVIDIA, como a GeForce RTX 5070 Ti, podem se deparar com o seguinte erro ao tentar rodar projetos com PyTorch e CUDA, como o Fooocus ou outras interfaces com IA generativa:

RuntimeError: CUDA error: no kernel image is available for execution on the device

Além disso, pode surgir o aviso:

UserWarning: NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.
Causa do problema

O erro indica que o PyTorch instalado não possui suporte à arquitetura SM da sua GPU. No caso da RTX 5070 Ti, trata-se de uma arquitetura nova (possivelmente Blackwell ou Lovelace Refresh), e o PyTorch está compilado apenas para arquiteturas anteriores (como SM_50 a SM_90).

✅ Solução passo a passo

A solução é instalar uma versão nightly do PyTorch que já foi compilada com suporte às arquiteturas mais recentes e ao CUDA 12.8, exigido por GPUs mais novas.

1. Remova o PyTorch atual

pip uninstall torch torchvision torchaudio -y

2. Limpe o cache do pip (opcional, mas recomendado)

pip cache purge

3. Instale o PyTorch nightly com suporte ao CUDA 12.8

pip install --pre torch torchvision torchaudio --index-url https://download.pytorch.org/whl/nightly/cu128

4. Verifique a instalação

python -c "import torch; print(torch.__version__); print(torch.version.cuda); print(torch.cuda.is_available()); print(torch.cuda.get_device_name(0))"

Saída esperada:

2.7.0.dev2025xxxx+cu128
12.8
True
NVIDIA GeForce RTX 5070 Ti

Se tudo estiver certo, o erro desaparecerá e você poderá usar a GPU corretamente no Fooocus, Stable Diffusion, LLMs, etc.


💡 Dica extra

Se você estiver usando Pinokio, Fooocus, WebUI, InvokeAI ou outro frontend com interface gráfica para IA, garanta que ele esteja utilizando o ambiente Python com esse novo PyTorch instalado.


🔍 Referência oficial

A própria equipe do PyTorch mantém instruções atualizadas aqui

a silhouette of a person's head and shoulders, used as a default avatar

Nueva versión del instalador de openSUSE y SUSE. Publicado Agama 17

Agama está llamado a ser el sustituto del legendario YaST a la hora de instalar openSUSE y SUSE en nuestros equipos. Echemos un vistazo a Agama 17

Ilustración de un camaleón con cara de contento escuchando música con unos auriculares mientras surfea

Agama es un nuevo instalador de Linux nacido en el núcleo del equipo de YaST. Está diseñado para ofrecer reutilización, integración con herramientas de terceros y la posibilidad de construir interfaces de usuario avanzadas sobre él.

Desde hace tiempo además de contribuir en la traducción del software al español, también me hago eco en el blog de las novedades que van trayendo las nuevas versiones publicadas por el equipo de desarrollo de Agama.

En este caso echaremos un vistazo a Agama 17. Puedes ver el anuncio oficial en este enlace:

Esta versión de Agama 17 representa un hito importante para el proyecto Agama, ya que estando tan cerca la publicación de SUSE Linux Enterprise 16.0 y openSUSE Leap 16, esta versión de Agama (o una muy similar) se convertirá en el instalador que se utilizará para esa versión de la distribución insignia de SUSE y openSUSE.

Echemos un vistazo a algunas de las mejoras que trae Agama 17.

Mejor representación de las conexiones de red cableadas

Comenzando con la interfaz de usuario, la página para mostrar y configurar una interfaz cableada concreta se ha reorganizado en gran medida para mejorar la claridad y representar correctamente la situación en la que varios dispositivos comparten la conexión.

Mejoras en la interfaz en el apartado de almacenamiento

La página para establecer la configuración del almacenamiento también se ha reorganizado ligeramente. La información que se muestra en la sección «Dispositivos de instalación» se reorganizó con el objetivo de hacer que su uso sea más comprensible a primera vista.

Aunque todavía se esperan más cambios, este es solo el primer paso. Además de reorganizar la información, la nueva interfaz de usuario ofrece la posibilidad de utilizar directamente un disco (o un dispositivo RAID preexistente) sin crear particiones.

También hay una nueva opción para volver a escanear el sistema en caso de que se hayan conectado nuevos dispositivos de hardware, se hayan creado nuevos dispositivos lógicos (RAID de línea o grupos de volúmenes LVM) o el usuario necesite una segunda oportunidad para ingresar una contraseña de cifrado.

Nuevas opciones al incio que permite seleccionar la distribución a instalar

Agama permite instalar diferentes distribuciones que se denominan «productos» en la jerga de Agama. Recientemente, Lubos Kocman contribuyó con una nueva definición de producto para openSUSE Leap Micro 6.2. Eso significa que ahora se podrá encontrar una nueva opción en la página inicial que le permite seleccionar la distribución a instalar.

Probar y contribuir a Agama

Todavía queda un largo camino por recorrer y se siguen implementando correcciones y nuevas funciones que puedes probar en la ISO de pruebas. También puedes aportar con código en el repositorio de GitHub, reportando errores, traduciendo, etc.

Imagen de un fondo oscuro con un degradado gris central sobre el que se muestra la imagen de la mascota de openSUSE y al lado izquierdo un motivo vegetal soltando unas esporas verdes
a silhouette of a person's head and shoulders, used as a default avatar

The core values of syslog-ng

Whenever I present syslog-ng at a conference or I stand next to a booth, people often ask me why should they use syslog-ng instead of one of its competitors. So let me summarize what the users and developers of syslog-ng typically consider as its most important values.

Documentation

Yes, I know, this is not syslog-ng itself. However, talking to some of our most active and loyal users, one common feedback was that they had chosen syslog-ng because of the quality of its documentation. Syslog-ng have always had very detailed and (usually) up-to-date documentation. Unfortunately though, there has been a period when our documentation has fallen victim of resource shortages for a while. However, as soon as these resource shortages have been taken care of, bringing our documentation up to pace has been at the top of our list.

Read about the rest at https://www.syslog-ng.com/community/b/blog/posts/the-core-values-of-syslog-ng

syslog-ng logo

a silhouette of a person's head and shoulders, used as a default avatar

Usando una sola distro de Linux – Podcast 24H24L

Después de la «Charlas de 24H24L», que fueron una magnífica colección de podcast sobre el ecosistema GNU/Linux, Jośe Jiménez cambió la forma de crear contenido y se centró en realizar podcast cortos, como si fueran píldoras de información que puedas tomar a modo de introducción de diversos temas o simplemente reflexiones que siempre son interesantes. Voy a intentar promocionarlos, igual que hago con otros podcast, para que este arduo trabajo no quede en saco roto. Bienvenidos pues a «Usando una sola distro de Linux», una reflexión muy acertada sobre este importante aspecto de mundo del Software Libre. No te la pierdas.

Usando una sola distro de Linux – Podcast 24H24L

Usando una sola distro de Linux  - Podcast 24H24L

El pasado 2020 finalizó un macroevento podcastero llamado 2424L, el cual tenía como objetivo seguir difundiendo las bondades de los sistemas libre GNU/Linux. Su promotor fue José Jiménez, al cual tuve el gusto de conocer en la Akademy-es 2013 de Málaga OpenSouthCode Edition ya que, además de asisitr, fue ponente.

En el 2021 repitió experiencia con bastante éxito, con una edición dedicada a la programación. Y en 2024 tenía la intención de volver a realizar la hazaña pero por diversos motivos redirigió el proyecto al formato podcast. La verdad es que tiene muchos muy interesantes, destacando la variedad de ponentes y presentadores.

Últimamente se dedica el podcasting de corta duración centrada en un tema muy específico, lo cual es ideal tanto para introducir un tema como para escuchar interesantes reflexiones, y este es el motivo de esta entrada (y las que vengan, espero)

Para empezar esta difusión empiezo con uno que publicó ayer y que me ha gustado especialmente porque creo que es una muy interesante reflexión.

En palabras de Jose:

Cuento mi experiencia usando solo un distro durante muchos años y como esto puede servir a la gente que está empezando en Linux, a centrarse en una sola distro.

Mi reflexión es la siguiente: céntrate en una distribución, soluciona el problema investigando y preguntando y, si puedes, comparte la solución.

Por cierto, dos cosas antes de cerrar. En primer lugar comentar que el podcast ha cambiado el feed. Ahora es https://24h24l.es/feed.xml. Actualiza tu aplicación de podcast si lo tenías, y si no, ya sabes qué añadir.

Y en segundo lugar, puedes realizar una pequeña donación al proyecto 24H24L. Los medios de para realizarla son los siguientes.

La entrada Usando una sola distro de Linux – Podcast 24H24L se publicó primero en KDE Blog.

the avatar of danigm's Blog

Log Detective: GSoC 2025 (part 2)

This week is the last week of Google Summer of Code for this year edition, and I'll do a summary of what we have been doing and future plans for the Log Detective integration in openSUSE.

I wrote a blog post about this project when it starts, so if you didn't read, you can take a look.

All the work and code was done in the logdetective-obs github repository.

Aazam, aka the intern, also wrote some blog post about his work.

Initial Research

The idea of the project was to explore ways of integration of LogDetective with the openSUSE dev workflow. So we started collecting some build failures in the openSUSE build service and testing with log detective to check if the output is smart or even relevant.

The intern creates a script to collect log from build failures and we store the LLM answer.

Doing this we detected that the log-detective.com explain is very slow and the local tool is less accurate.

The results that we got weren't too good, but at this point of the project is something expected. The model is being trained and will improve with every new log that users send.

Local vs Remote, model comparison

The logdetective command line tool is nice, but LLM requires a lot of resources to run locally. This tool also uses the models published by fedora in huggingface.co, so it's not as accurate as the remote instance that has a better trained model and is up to date.

In any case, the local logdetective tool is interesting and, at this moment, it's faster than the deployed log-detective.com.

Using this tool, Aazam did some research, comparing the output with different models.

logdetective apache-arrow_standard_x86_64.log\
  --model unsloth/Qwen2.5-Coder-7B-Instruct-128K-GGUF\
  -F Qwen2.5-Coder-7B-Instruct-Q4_K_M.gguf\
  --prompt ~/prompt.yaml

So using other specific models, the logdetective tool can return better results.

The plugin

openSUSE packagers uses the osc tool, to build packages in build.opensuse.org. This tool can be extended with plugins and we created a new plugin to use log-detective.

So a packager can get some AI explanation about a build failure with a simple command:

$ osc ld -r -p devel:languages:python --package python-pygame --repo openSUSE_Tumbleweed
🔍 Running logdetective for python-pygame (openSUSE_Tumbleweed/x86_64)...
Log url: https://api.opensuse.org/public/build/devel:languages:python/openSUSE_Tumbleweed/x86_64/python-pygame/_log
🌐 Sending log to LogDetective API...
 The RPM build process for the `python-pygame` package failed during the
`%check` phase, as indicated by the "Bad exit status from /var/tmp/rpm-
tmp.hiddzT (%check)" log snippet. This failure occurred due to seven test
failures, one error, and six skipped steps in the test suite of the package.



The primary issue causing the build failure seems to be the traceback error in
the `surface_test.py` file, which can be seen in the following log snippets:



[[  278s] Traceback (most recent call last):
[  278s]   File "/home/abuild/rpmbuild/BUILD/python-
pygame-2.6.1-build/BUILDROOT/usr/lib64/python3.11/site-
packages/pygame/tests/surface_test.py", line 284, in test_copy_rle
]
[[  278s] Traceback (most recent call last):
[  278s]   File "/home/abuild/rpmbuild/BUILD/python-
pygame-2.6.1-build/BUILDROOT/usr/lib64/python3.11/site-
packages/pygame/tests/surface_test.py", line 274, in
test_mustlock_surf_alpha_rle
]
[[  278s] Traceback (most recent call last):
[  278s]   File "/home/abuild/rpmbuild/BUILD/python-
pygame-2.6.1-build/BUILDROOT/usr/lib64/python3.11/site-
packages/pygame/tests/surface_test.py", line 342, in test_solarwolf_rle_usage
]



These traceback errors suggest that there are issues with the test functions
`test_copy_rle`, `test_mustlock_surf_alpha_rle`, and `test_solarwolf_rle_usage`
in the `surface_test.py` file. To resolve this issue, you should:



1. Identify the root cause of the traceback errors in each of the functions.
2. Fix the issues found, either by modifying the test functions or correcting
the underlying problem they are testing for.
3. Re-build the RPM package with the updated `surface_test.py` file.



It's also recommended to review the other test failures and skipped steps, as
they might indicate other issues with the package or its dependencies that
should be addressed.

Or if we are building locally, it's possible to run using the installed logdetective command line. But this method is less accurate, because the model used is not smart enough, yet:

$ osc build
[...]
$ osc ld --local-log --repo openSUSE_Tumbleweed
Found local build log: /var/tmp/build-root/openSUSE_Tumbleweed-x86_64/.build.log
🚀 Analyzing local build log: /tmp/tmpuu1sg1q0
INFO:logdetective:Loading model from fedora-copr/Mistral-7B-Instruct-v0.3-GGUF
...

Future plans

  1. Adding submit-log functionality to osc-ld-plugin. In-progress. This will make it easier to collaborate with log-detective.com, allowing openSUSE packagers to send new data for model training.
  2. Gitea bot. openSUSE development workflow is moving to git, so we can create a bot that comment on Pull Request with packages that fails to build. Something similar to what fedora people have for centos gitlab
  3. Add a new tab to log-detective.com website to submit logs directly from OBS

This was an interesting Summer of Code project. I learned a bit about LLM. I think that this project has a lot of potential, this can be integrated in different workflows and an expert LLM can be a great tool to help packagers, summarizing big logs, tagging similar failures, etc.

We have a lot of packages and a lot of data in OBS, so we should start to feed the LLM with this data, and in combination with the fedora project, the log-detective could be a real expert in open source RPM packaging.

a silhouette of a person's head and shoulders, used as a default avatar

Releasing version 17

Summer is vacation season, at least in Europe, and that usually means nothing seems to move too much. But since there is an exception to every rule, here comes a new Agama version to prove that not even heat can stop Free Software!

Agama 17 represents an important milestone for the Agama project. Taking into account how close the release of SUSE Linux Enterprise 16.0 is, we foresee this version of Agama (or a very similar one) becoming the endorsed installer for that release of SUSE's flagship distribution.

So let's see what's new.

Better representation of wired network connections

Starting with the web user interface, the page to display and configure a concrete wired interface was heavily reorganized to improve clarity and to correctly represent the situation in which several devices share the connection.

Several network devices using the same connection

Improvements in the storage user interface

The page to configure the storage setup was also slightly restructured. The information displayed at the "Installation Devices" section was reorganized with the goal of making its usage more understandable at first sight.

Several network devices using the same connection

This is just an intermediate step to our envisioned user interface. But that is how goals are reached - one step at a time.

Apart from reorganizing the information, the new user interface offers the possibility to directly use a disk (or a pre-existing RAID device) without creating partitions.

There is also a new option to re-scan the system in case new hardware devices has been plugged in, new logical devices (line RAIDs or LVM volume groups) have been created or the user needs a second chance to enter an encryption password.

New options at the storage user interface

Last but not least, the user interface can now detect when an Agama configuration has been loaded affecting the storage setup.

Alert the user if storage configuration changed

More options at the registration page

To finish the recap of the main changes at the user interface, we must mention the registration page. Apart from registering the system on the SUSE Customer Center (SCC), now the user interface can be used to register the system on a custom instance of RMT (Repository Mirroring Tool).

Registering on an instance of RMT

Users of such RMTs do not longer need to use a configuration profile or Agama's command-line tools, like in previous versions of the installer.

Skipping SELinux configuration

The default installations of SUSE Linux Enterprise Server 16.0 and openSUSE Leap 16.0 will use SELinux as the default Linux kernel security module (LSM). But it is possible to adjust the software selection to not install SELinux or to install an alternative LSM (like AppArmor).

Previous versions of Agama did not manage that situation correctly. Agama always enforced the configuration of the default LSM for the product (SELinux in the mentioned cases).

Now the configuration of the LSM is based on the software selection. At the end of the installation process, Agama configures the installed security module. If several ones are installed, Agama configures one of them, with the default one having precedence over the other candidates.

New options in the JSON configuration

As most of our readers know, the best way to access the full potential of Agama is to use a JSON (or Jsonnet) configuration. That goes far beyond the options offered by the web interface and is the default mechanism to configure unattended installations.

Agama 17 adds the possibility to configure VLAN interfaces. See the following example.

{
"id": "vlan10",
"method4": "manual",
"method6": "disabled",
"addresses": ["192.168.1.28/24"],
"gateway4": "192.168.1.1",
"nameservers": ["192.168.1.1"],
"vlan": {
"id": 10,
"parent": "eth0"
}
}

Now it is also possible to activate zFCP devices by specifying the corresponding section at the JSON configuration, like in this example.

{
"zfcp": {
"devices": [
{
"channel": "0.0.fa00",
"wwpn": "0x500507630300c562",
"lun": "0x4010403300000000"
}
]
}
}

This version also adds more flexibility to define the list of software patterns to be installed. In previous versions, it was only possible to specify a whole list that would replace the default list of optional patterns defined by the product. Now it is possible to ask Agama to modify that list, just adding or removing certain patterns.

{
"software": {
"patterns": {
"remove": ["selinux"],
"add": ["apparmor", "gnome"]
}
}
}

But sometimes it is Agama that wants to ask something to the user. For example, when it finds an encrypted device and needs the password to inspect its content. If that happens, Agama's user interface can show a dialog for the user to provide the answer. But there are more options to communicate those answers to Agama, like using the command agama questions to load a file containing answers. Agama 17 introduces a third way - the new questions section at the JSON configuration. Again, let's illustrate it with an example.

{
"questions": {
"policy": "auto",
"answers": [
{
"class": "storage.luks_activation",
"password": "nots3cr3t"
}
]
}
}

Improvements for unattended installation

Users of the unattended installation will of course benefit from the mentioned new options added to the JSON configuration. But the improvements for automated installations go beyond that.

On the one hand, Agama does not longer proceed silently if it fails to fetch or process a configuration provided via the inst.auto boot argument. Instead, this new version displays an error message asking the user whether or not to retry. If the user decides to not retry, Agama does not start the auto-installation process. This is just a first step in the right direction, in the future Agama will offer better diagnostics and the possibility to specify a new URL.

On the other hand, the new boot arguments inst.auto_insecure and inst.script_insecure allow to disable the SSL checks when fetching the configuration or the installation script for an unattended installation. That simplifies setting up the corresponding infrastructure in controlled environments.

More possibilities to patch the installer

Traditionally, the (open)SUSE installation process could be modified using RPM packages or a so-called DUD (driver update disk). Despite the name, the possibilities go way further than updating the drivers. A DUD might contain files to be copied to the installation media, scripts to be executed during the process, new or updated packages to be installed, etc. You can learn more at this classic document.

Previous versions of Agama already had some limited compatibility that allowed to patch the installation process. But that compatibility improves a lot with Agama 17.

At Agama, the URL of an update is specified through the boot option inst.dud. As mentioned, an update can be a simple rpm package or a more complex DUD, created with the mkdud tool. You can specify as many updates as you wish. Do not forget the rd.neednet option if you need the network to retrieve the DUD.

inst.dud=http://192.168.122.1/agama.dud rd.neednet

Additionally, the inst.dud_insecure boot argument allows to ignore SSL certificate problems (eg. a self-signed certificate) when fetching updates.

The family grows

As you know, Agama allows to install different distributions that are called "products" in Agama's jargon. Recently Lubos Kocman contributed a new product definition for openSUSE Leap Micro 6.2. That means you will now find a new option on the initial page that allows to select the distribution to install.

Welcome aboard, Leap Micro!

Web page reorganization

And last but not least, a news that is not about Agama itself but about the site that hosts this blog. As a first step to extend Agama's documentation, we reorganized agama-project.github.io quite a lot. Check the new additions like the "Get started" and "Guides & HowTos" sections. The second one is at an early stage, but we are already working on growing it with more and more content. Of course, contributions are more than welcome.

As a drawback, many of the links you may have from previous sources may now be broken. We rearranged the content a lot and it was not feasible to define a redirection for every moved piece of information. Sorry about that.

We keep moving

As mentioned, the upcoming SUSE Linux Enterprise 16.0 will be distributed with the current version of Agama or with a very similar one. But that does not imply Agama development will slow down, quite the opposite. There is still a long road ahead and we will keep implementing fixes and new features that you could always test with our constantly updated testing ISO.

Of course, we will keep you updated on this blog. But if you got questions or want to get involved further, do not hesitate to contact us at the Agama project at GitHub and our #yast channel at Libera.chat.

Have a lot of fun!

a silhouette of a person's head and shoulders, used as a default avatar

El valor y el precio del navegador Chrome de Google

¿Cuánto dinero te cuesta instalar el navegador Chrome de Google en tu equipo? ¿Cuánto pagaría una empresa a Google por hacerse con su navegador?

Imagen de un billete de 1 dólar norteamericano en la que se ve la imagen de Richard Stallman

El navegador Chrome de Google es sin duda el más utilizado a la hora de utilizarlo para navegar por la red. Su cuota de mercado está por encima del 65%, muy lejos de su segundo competidor.

El 17 de agosto de 2025, Enrique Dans publicaba un artículo en su blog donde escribía sobre la oferta que la empresa Perplexity le había hecho a Alphabet (a la sazón Google) por comprarle su navegador Chrome.

Y juntando estas dos cosas, me dio por pensar…

Cualquier persona que quiera utilizar el navegador Chrome de Google puede hacerlo de maner gratuita. Puede ir a su página oficial, descargarlo, instalarlo en su equipo y utilizarlo, todo sin pagar nada, ya que el navegador Chrome es gratuito.

No hay que pagar nada por utilizarlo, ni por añadir funcionalidades. No piden donaciones ni dinero al proyecto por ningún sitio y además se integra con otras herramientas del ecosistema de Google. Millones de personas utilizan este navegador a coste 0 para la persona que lo utiliza. Chrome es gratuito (aunque no es libre, ya que no está publicado bajo una licencia de software libre).

Entonces, según el artículo de Enrique Dans ¿Por qué una empresa como Perplexity ha hecho una oferta a Google por 34.5 billones de dólares (y probablemente pueda valer más) por un software que es gratuito?

Es decir, a la persona que lo usa le ha costado 0, y a la empresa que lo desarrolla, con toda la inversión en materia de desarrollo de software que implica, le han ofrecido 34.5 billones de dólares.

Además Chrome está basado en Chromium, que sí es software libre. Perplexity podría poner en marcha un navegador web (de hecho creo que lo está haciendo) empleando mucho menos del dinero de la oferta y crear su propio navegador. Pero no tendría la cuota de mercado de Chrome, y conseguirla sería muy complicado.

¿Dónde están las ganancias? ¿Qué es lo que tiene tanto valor en un software que no puedes vender? ¿Qué es lo que vale tanto dinero o más como el ofertado para querer comprarlo? ¿Si el precio es 0, dónde está el valor?

Supongo que en los datos que generan los millones de usuarios en todo el mundo que lo utilizan.

El navegador es la parte clave con la que nos comunicamos en la red. Aunque ahora hay aplicaciones en nuestros dispositivos móviles fuera del navegador para acceder a nuestras compras, bancos, y otras acciones del día a día. El navegador sigue siendo la puerta con la que nos conectamos a internet.

Y supongo que todos los datos que generamos y todas las estadísticas y bases de datos que pueden alimentar con nuestro modo de utiliarlo es lo que vale tanto dinero, porque habrá un montón de empresas deseando comprar y tener disponibles todos esos datos cruzados para su beneficio y sacarle todo el partido.

La verdad es que todo eso me queda muy grande y no entiendo cómo podría explotarse el uso de Chrome para ganar dinero, o por lo menos tanto como para que puedan ofertarse esas cifras por su software.

Pero me dio por pensar en ese abismo tan enorme entre precio y valor. Me gustará leer tus opiniones al respecto.

the avatar of openSUSE News

Building Edge AI Infrastructure with KVM, openSUSE, and Ollama

Edge AI infrastructure is transforming how we deploy machine learning workloads, bringing computation closer to data sources while maintaining privacy and reducing latency. This comprehensive guide demonstrates building an edge analytics platform using KVM virtualization, openSUSE Leap (15.6), K3s, and Ollama for local AI inference.

Our architecture leverages a KVM homelab infrastructure originally set-up by my Google Summer of Code Mentor. This set-up was built to create specialized AI nodes in a distributed cluster, with Longhorn providing shared storage for models and application data. Each component is chosen for reliability, scalability, and edge-specific requirements.

Prerequisites and Architecture Overview

This setup requires:

  • KVM hypervisor with existing infrastructure
  • Minimum 8GB RAM per VM (16GB recommended for larger models)
  • Network storage for distributed file system
  • Basic Kubernetes and networking knowledge

The final architecture includes multiple specialized nodes, distributed storage, monitoring, and load balancing for high-availability AI inference.

VM Foundation Setup

Creating the Edge AI Node

Start with a clean VM deployment using established automation tools:

cd ~geeko/bin/v-i
sudo ./viDeploy -c ./VM-K3s.cfg -n edge-ai-01

System Configuration

Complete the openSUSE installation with consistent settings across all nodes:

Installation Settings:

  • Keyboard: US
  • Timezone: UTC
  • Root password: gsoc (consistent across cluster)

Network Configuration:

# Configure static networking
cd /etc/sysconfig/network
cp ifcfg-eth1 ifcfg-eth0
vi ifcfg-eth0

Edit network configuration:

STARTMODE=auto
BOOTPROTO=static
IPADDR=172.xx.xxx.xx/24

Set hostname and disable firewall for edge deployment:

hostnamectl set-hostname edge-ai-01
echo "172.xx.xxx.xx edge-ai-01.local edge-ai-01" >> /etc/hosts
systemctl disable --now firewalld
systemctl restart network

Essential Package Installation

Install required components for Kubernetes and distributed storage:

zypper refresh
zypper install -y open-iscsi kernel-default e2fsprogs xfsprogs apparmor-parser
systemctl enable --now iscsid

Storage Configuration for Longhorn

Prepare dedicated storage for distributed AI workloads:

lsblk
fdisk /dev/vdb
# Create new GPT partition table and primary partition
mkfs.ext4 /dev/vdb1
mkdir -p /var/lib/longhorn
echo "/dev/vdb1 /var/lib/longhorn ext4 defaults 0 0" >> /etc/fstab
mount -a
systemctl reboot

Kubernetes Cluster Integration

Joining the Edge AI Cluster

Access your Rancher management interface to create a dedicated AI cluster:

  1. Navigate to Rancher WebUI: http://172.16.200.15
  2. Create → Custom cluster
  3. Name: edge-ai-cluster
  4. Select K3s version
  5. Copy and execute registration command:
curl -fsSL https://get.k3s.io | K3S_URL=https://172.xx.xxx.xx:6443 K3S_TOKEN=your-token sh -

Verify cluster connectivity:

kubectl get nodes
kubectl get pods --all-namespaces

Ollama Installation and Configuration

Installing Ollama

Deploy Ollama for local LLM inference:

curl -fsSL https://ollama.com/install.sh | sh
systemctl enable --now ollama

Cluster Access Configuration

Configure Ollama for distributed access:

mkdir -p /etc/systemd/system/ollama.service.d
vi /etc/systemd/system/ollama.service.d/override.conf

Add cluster binding:

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

Apply configuration:

systemctl daemon-reload
systemctl restart ollama

Model Deployment Strategy

Deploy models based on hardware capabilities:

# For 8GB RAM nodes - quantized models
ollama pull phi3

# For 16GB+ RAM nodes - higher precision
ollama pull phi3

# Verify installation
ollama list

Quantized models (q4_K_M) reduce memory usage by ~75% while maintaining performance for edge analytics.

Edge Analytics Platform Deployment

Repository Setup

Clone the Edge Analytics ecosystem:

git clone https://github.com/rudrakshkarpe/Edge-analytics-ecosystem-workloads-openSUSE.git
cd Edge-analytics-ecosystem-workloads-openSUSE

Configuration for Cluster Deployment

Update Kubernetes manifests for distributed deployment:

vi k8s-deployment/streamlit-app-deployment.yaml

Modify Ollama endpoint:

- name: OLLAMA_BASE_URL
  value: "http://172.xx.xxx.xx:11434"

Application Deployment

Deploy in correct order for dependency resolution:

kubectl apply -f k8s-deployment/namespace.yaml
kubectl apply -f k8s-deployment/storage.yaml
kubectl apply -f k8s-deployment/streamlit-app-deployment.yaml
kubectl apply -f k8s-deployment/ingress.yaml

Verify deployment status:

kubectl get pods -n edge-analytics
kubectl logs -f deployment/edge-analytics-app -n edge-analytics

Distributed Storage with Longhorn

Longhorn Deployment

Deploy distributed storage system:

kubectl apply -f https://raw.githubusercontent.com/longhorn/longhorn/master/deploy/longhorn.yaml

Wait for all pods to be running:

kubectl get pods -n longhorn-system -w

Configure Default Storage Class

Set Longhorn as default for persistent volumes:

kubectl patch storageclass longhorn -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'

Multi-Node Scaling and Specialization

Additional Node Deployment

Scale the cluster with specialized nodes:

Node IP Assignment:

  • edge-ai-02: 172.16.220.11
  • edge-ai-03: 172.16.220.12

Node Labeling for Workload Distribution

Label nodes based on capabilities:

# GPU-enabled nodes
kubectl label node edge-ai-02 node-type=gpu-inference

# CPU-optimized nodes
kubectl label node edge-ai-03 node-type=cpu-inference

Specialized Model Deployment

Deploy appropriate models per node type:

# GPU nodes - larger models
ssh root@172.16.220.11
ollama pull phi3

# CPU nodes - optimized quantized models
ssh root@172.16.220.12
ollama pull phi3

Production Monitoring and Operations

Monitoring Stack Deployment

Deploy comprehensive observability:

kubectl apply -f k8s-deployment/monitoring.yaml

Service Access

For development and testing access:

# Edge Analytics application
kubectl port-forward svc/edge-analytics-service 8501:8501 -n edge-analytics

# Prometheus metrics
kubectl port-forward svc/prometheus 9090:9090 -n monitoring

# Grafana dashboards  
kubectl port-forward svc/grafana 3000:3000 -n monitoring

Operational Commands

Model Management:

# Check model status across cluster
kubectl exec -it daemonset/ollama -n edge-analytics -- ollama list

# Update models cluster-wide
kubectl exec -it daemonset/ollama -n edge-analytics -- ollama pull llama3:latest

Scaling Operations:

# Horizontal scaling
kubectl scale deployment edge-analytics-app --replicas=3 -n edge-analytics

# Resource monitoring
kubectl top nodes
kubectl top pods -n edge-analytics

Access Points and Integration

Service URLs:

  • Edge Analytics UI: http://172.xx.xxx.xx:8501
  • Rancher Management: http://172.16.200.15
  • Prometheus Metrics: http://172.xx.xxx.xx:9090
  • Grafana Dashboards: http://172.xx.xxx.xx:3000 (admin/admin)

Key Advantages of This Architecture

  1. Privacy-First: All AI inference happens locally, ensuring data never leaves your infrastructure
  2. Scalable: Kubernetes orchestration enables easy horizontal scaling as workloads grow
  3. Resilient: Distributed storage and multi-node deployment provide high availability
  4. Cost-Effective: Utilizes existing hardware infrastructure without cloud dependencies
  5. Flexible: Support for various model sizes and quantization levels based on hardware

Troubleshooting Common Issues

VM Connectivity:

virsh list --all
virsh console edge-ai-01

Kubernetes Issues:

kubectl describe node edge-ai-01
kubectl get events --sort-by=.metadata.creationTimestamp

Ollama Service Problems:

systemctl status ollama
journalctl -u ollama -f
curl http://172.xx.xxx.xx:11434/api/tags

This edge AI infrastructure provides a robust foundation for deploying local LLMs with enterprise-grade reliability, enabling organizations to leverage AI capabilities while maintaining complete control over their data and compute resources.

For advanced configurations and additional features, explore the complete repository documentation and consider integrating with external tools like vector databases for enhanced RAG capabilities.

Huge shoutout to my mentors Bryan Gartner, Terry Smith, Ann Davis for making this set-up possible.

a silhouette of a person's head and shoulders, used as a default avatar

Resumen de las Novedades de KDE ⚙️ Gear 25.08 Summertime Edition

Hoy os traigo una entrada recopilatoria, fruto de los experimentos visuales que estoy realizando en el blog. Se trata del resumen de las novedades de KDE ⚙️ Gear 25.08 Summertime Edition, un simple compendio de las funcionalidades más destacadas de este lanzamiento veraniego compuesto de 4 pequeños artículos.

Resumen de las Novedades de KDE ⚙️ Gear 25.08 Summertime Edition

Son solo cuatro entradas pero llenas de cosas jugosas y útiles. No os las podéis perder.

KDE Gear, un Software gratuito para todo el mundo pero que necesita de tu apoyo

Lanzado KDE ⚙️ Gear 25.08 Summertime Edition

Recuerda, todo este software es gratuito y sin publicidad en todos los sentidos: no te cuesta ni un euro y no se cobra en en forma de datos personales. No obstante, si quieres ayudar a su desarrollo siempre puedes participar en su campaña de recaudación de fondos.

La entrada Resumen de las Novedades de KDE ⚙️ Gear 25.08 Summertime Edition se publicó primero en KDE Blog.