Skip to main content

a silhouette of a person's head and shoulders, used as a default avatar

Limpiando PlanetaLibre

Ya tocaba hacer un poco de limpieza en los blogs y webs sobre GNU/Linux y software libre que se muestran en el agregador PlanetaLibre

Imagen de opensource.com – Licencia CC-by-sa

PlanetaLibre es una página donde se recopilan artículos en español de webs y blogs que tienen como temática GNU/Linux y el software libre.

Un proyecto que nació en marzo de 2019 queriendo mantener la esencia de otra web similar mantenida por T3rr0rz0n3 desaparecida por aquel entonces.

En estos 4 años de vida, la pequeña web se ha mantenido gracias al script que creó Selairi y que se ejecuta cada hora en mi Raspberry Pi.

Durante estos años, he ido añadiendo webs y blogs relacionadas con la temática, bien porque los encontraba interesantes o bien porque las personas que los mantenían querían que los incluyera.

La lista de blogs y webs no es muy extensa, en la actualidad está en 51, aunque hubo momentos mejores.

Si seguís el proyecto y consultais PlanetaLibre a diario, habréis observado que últimamente ha habido unos días con problemas y que no se actualizaba como debería, algunos me lo comentásteis por Mastodon.

El problema fue, que utilicé la RaspberryPi para hacer unas pruebas y probar otras cosas (Kodi) que finalmente no se consolidaron. Por lo que volví a instalar Raspbian OS (un Debian para Raspberry Pi) actualizada a la última versión.

Estuve configurando varias cosas y nuevos servicios que he querido darle a la Raspberry, y entre ellos volvió PlanetaLibre, pero no como lo hacía antes.

Me pasé bastante tiempo, tratando de encontrar el problema y después de maldiciones y frustraciones ahora todo parece que vuelve a funcionar como debería. Por tanto, PlanetaLibre vuelve a esta actualizada y funcionando.

Pero ya metidos en harina, he aprovechado para hacer limpieza de webs. Consulté todos los enlaces, borrando los que ya no estaban operativas o las que hacía mucho tiempo (más de 2 años) que no se actualizaban. Y lo que queda es lo que es…. por el momento.

También ha habido tiempo para actualizar direcciones de feeds, por ejemplo los de Podcast Linux que habían cambiado y no se mostraban.

Un poco de mantenimiento que siempre es necesario, pero que pocas veces se encuentra uno con el ánimo, tiempo y ganas de realizarlo. Pero esta vez lo realicé.

Así que espero que sigas disfrutando de PlanetaLibre, que mantiene su estilo, pero se renueva por dentro y mi Raspberry Pi seguirá manteniéndola actualizada cada hora 24/7.

Si conoces algún blog o web en español o lenguas oficiales del estado español con la temática de PlanetaLibre que quieres que se incluya, no dudes en enviarme un correo con la url y el url de los feeds.

Dibujo: Ondiz Zárraga
the avatar of openSUSE News

Results of Use Case Survey Published

The openSUSE Project ran a use-case survey during the month of October and results are now available via a 254-page report and a summary of the survey’s findings is on the community’s wiki.

The survey provides a breakdown of the use cases of Linux among respondents based on their primary use of IT.

The survey had general questions along with sections for Work/Business and Home/Hobby. Those who responded as using both, which if selected provides the surveyee the opportunity to take the entire 30-question survey.

Questions on various IT technologies like cloud computing, containerization, configuration management, desktop computing, server infrastructure, serverless computing, virtualization, edge computing, IoT applications, machine learning, blockchain, gaming and a category of others were part of the survey.

People were able to rate their use of these technologies as well as to provide comments for selective questions. The raw text from the full report was compiled to provide a summary for the ratings and use cases.

People reviewing the report are more than welcome to enhance the summary on the wiki.

the avatar of Alessandro de Oliveira Faria

IA permite criar vídeos com sensação de Toque

Com a integração de tecnologias hápticas avançadas, os ambientes imersivos do metaverso e a aplicação de inteligência artificial (IA), estamos agora na vanguarda de uma era em que vídeos e hologramas ultrapassam a barreira da tela. Essa sinergia tecnológica permite que usuários interajam com objetos nas cenas digitais de maneira tátil, efetivamente podendo “tocar” e sentir o conteúdo virtual. Isso é possível graças à capacidade da IA de gerar mapas de profundidade detalhados em imagens e vídeos, criando uma simulação realística de espaços tridimensionais. Adicionalmente, com as inovações contínuas no metaverso, essas experiências interativas e táteis estão se tornando mais acessíveis e ricas, marcando uma nova fase na interação humano-computador.

Primeiramente, o processo inicia com a divisão do vídeo em frames individuais, que são posteriormente processados por um algoritmo de deeo learning. Este algoritmo é responsável por avaliar meticulosamente cada pixel dos frames para estimar sua profundidade, levando em consideração fatores como dimensão e formato dos objetos, nuances de iluminação e padrões de movimento. Através da síntese dessas estimativas, um mapa de profundidade coerente é gerado para o vídeo completo. Esse mapa é a chave para renderizar o vídeo de forma a emular a percepção tridimensional, conferindo-lhe um efeito 3D convincente. Para garantir precisão e realismo, o algoritmo é treinado utilizando um vasto conjunto de dados que abrange vídeos detalhados de pessoas, objetos diversos e ambientes naturais, permitindo-lhe aprender e reconhecer uma ampla gama de profundidades espaciais. Abaixo um exemplo do vídeo processado e renderizado.

Esta técnica é denominada “Video Depthify”, refere-se à criação de uma sensação tridimensional ao atribuir valores de profundidade a cada pixel ou região de um vídeo. O objetivo é fazer com que os objetos pareçam ter profundidade real e relações espaciais uns com os outros, ao invés de parecerem planos.

Para que um modelo de machine learning possa “depthify” vídeos, ele primeiro precisa ser treinado em um grande conjunto de dados, assim posteriormente permitindo que o modelo aprenda a relação entre os pixels do vídeo e os valores de profundidade correspondentes.

Redes Neurais Convolucionais (CNNs): As CNNs são usadas nesse tipo de tarefa, pois são particularmente boas em tarefas relacionadas à imagem e vídeo. Elas podem identificar características e padrões em imagens que correspondem a diferentes níveis de profundidade.

Estimação de profundidade monocular é uma técnica que tenta derivar mapas de profundidade de imagens ou vídeos de uma única lente. Isso é particularmente desafiador, mas com conjuntos de dados suficientes e modelos complexos, tornou-se viável “depthify” vídeos que foram gravados sem qualquer equipamento especializado de profundidade.

Hardware 3D

Atualmente, a geração de vídeos com profundidade alcançou um patamar notavelmente avançado graças à utilização de câmeras 3D inovadoras, como a Intel RealSense e a OAK-D, que capturam dados espaciais com grande precisão. Estas câmeras são equipadas com sensores de profundidade sofisticados, que mapeiam o ambiente em três dimensões em tempo real, fornecendo uma nuvem de pontos densa e informações detalhadas sobre a forma e o posicionamento dos objetos no espaço. Combinando esses dados ricos com algoritmos inteligentes, é possível criar vídeos que não apenas exibem imagens com aparência tridimensional, mas que também permitem interações profundamente imersivas e aplicativos avançados em realidade aumentada, robótica e além, revolucionando como interagimos e percebemos conteúdo digital em três dimensões. Um exemplo, é o projeto que desenvolvi para projetar hologramas com câmeras realsense https://github.com/cabelo/rscreatelg .

Luvas com tecnologia háptica

As tecnologias táteis, como o TactGlove da bHaptics, são dispositivos inovadores que buscam melhorar a imersão em ambientes virtuais e digitais através da simulação de sensações táteis.

Funcionam com atuadores e Mapeamento de Sensações: O TactGlove, e dispositivos similares, são equipados com uma série de atuadores distribuídos ao longo da superfície da luva (por exemplo, um luva). Estes atuadores são pequenos motores ou módulos que podem vibrar ou se mover de maneiras específicas. Quando ativados, eles recriam a sensação de toque, pressão ou até mesmo movimento na pele do usuário, imitando a sensação de estar tocando ou sendo tocado por objetos virtuais.

Esses dispositivos táteis são conectados a sistemas de realidade virtual (VR) ou realidade aumentada (AR). Quando um usuário interage com um objeto virtual ou experimenta um evento no ambiente digital (como ser atingido por um objeto), o sistema envia informações para o dispositivo tátil. Baseando-se nessa informação, o dispositivo ativa os atuadores apropriados para simular a sensação correspondente.

Quando se utiliza inteligência artificial para gerar um vídeo com tecnologia Depthify, o sistema consegue calcular precisamente as coordenadas relativas dos objetos virtuais dentro do vídeo em relação ao ambiente real. Essa habilidade de “entender” a posição espacial permite, então, ativar os mecanismos hápticos de uma luva especializada, como a vibração, no exato momento em que uma colisão entre pontos tridimensionais é detectada. Desta forma, o usuário pode experimentar uma resposta tátil sincronizada com a interação visual, intensificando a imersão e proporcionando uma experiência de realidade mista convincente e interativa.

Abaixo um exemplo da tecnologia em prática. Resumidamente o futuro chegou!

a silhouette of a person's head and shoulders, used as a default avatar

Music of the week: Pictures at an Exhibition

As you might have guessed from my previous blog posts: I love music. Colleagues, family, and friends often turn to me for suggestions if they want to listen to something new and less mainstream. This blog is about music I listen to, the first part of what will hopefully become a series. I hope you also find something interesting here!

Why did I pick “Pictures at an Exhibition” when I talk about “less mainstream” music in the opening paragraph? Well, everyone knows this piece of music. Or do they? The original music composed by Mussorgsky was a piano suite in 1874, but most people are only aware about one of the orchestrated versions. I can still recall from primary school, when our music teacher played the orchestration by Ravel, and asked us to give a title for each movement.

Ravel was not the only one orchestrating “Pictures at an Exhibition”. For this blog I collected those which I listened to, but if you do a quick search on your favorite music service, I am pretty sure that you will find a lot more. In each case I chose the closing movement: The Great Gate of Kiev.

First let’s listen to the version which comes to the mind of most people when Pictures at an Exhibition is mentioned. It is also the one I listened to first: the orchestration by Ravel from 1922. It was recorded by many orchestras. Here I chose the version which I have at home: played by the Berliner Philharmoniker, conducted by Herbert von Karajan:

TIDAL: https://listen.tidal.com/album/77611281

Next, listen to the original, piano version. It does not seem to be recorded as often as the orchestrated versions. Here I chose randomly, just making sure that it is a good quality recording:

TIDAL: https://tidal.com/browse/video/101487217

The version I learned about next was created by Tomita, a Japanese pioneer of electronic music. I do not remember who gave a copy to me on tape, just that I also got Switched-On Bach by Wendy Carlos at the same time. I was born to a family where Bartók was considered to be too modern. These reworks opened me to contemporary music.

TIDAL: https://listen.tidal.com/album/63190788

During my university years I became an Emerson, Lake & Palmer fan, in part due to their interpretation of Pictures at an Exhibition. It is one of my favorite concert recordings, so I have it both on CD and as high resolution FLAC files from Hdtracks.

TIDAL: https://listen.tidal.com/album/63101464

The last version I want to show you is a concert recording by the Hungarian band, Panta Rhei. As they write below the video: “As our concert on 22/04/2022 approached, we were wondering which piece of music would be a fitting encore to our performance of the Peer Gynt Suite. A few weeks before our concert a war broke out in one of our neighbouring countries. We chose to express our solidarity with the people of Ukraine with our interpretation of Mussorgsky’s “The Great Gate of Kiev”.” I was there at the concert: it was fantastic.

Unfortunately, they are not on TIDAL, but you can find their music on YouTube at https://www.youtube.com/@pantarheiofficial3562 and have a website at http://panta-rhei.hu/

You can learn more about the history of Pictures at an Exhibition at https://en.wikipedia.org/wiki/Pictures_at_an_Exhibition

a silhouette of a person's head and shoulders, used as a default avatar

openSUSE.Asia Summit 2023 に行ってきた

10月25日、26日に中国の重慶で開催された openSUSE.Asia Summit 2023 に参加してきました。openSUSE.Asia Summit は2014年から、ほぼ毎年開催してきましたが、2020年は中止、2021年はオンライン、2022年はオンラインとサテライト開催(台北、ジャカルタ、東京)でしたので、会場に集まっての開催は実に4年ぶりとなります。

中国の重慶には、大学の学生を中心とした強い OSS コミュニティがあります。サービスを企画して運用するような大学のサークル活動もあるそうです。openSUSE.Asia Summit 開催は(記憶によると)2回目の挑戦で初開催です。会場は重庆邮电大学(重慶郵電大学、Chongqing University of Posts and Telecommunications)でした。会場には約200人が集まりました。

基調講演は openSUSE Board から Patrick が Geeko Foundation について発表しました。これまで、openSUSEには資金面での受け皿がなく、寄付等を受け取ることができませんでした。この問題を解決するために、資金団体を立ち上げる計画が進められていましたが、今年、設立に至りました。

こちらは、RISC-V アーキテクチャの CPU ボードシリーズ Milk-V のデモ。人気があって入手困難という話を小江戸らぐで聞いたことがありました。うまく動かなかったらしく、ワークショップ中になにやらデバッグ中の風景です。

インドネシアの Edwin は、ダウンロードを改善するためにインドネシアに設置したリポジトリのミラーサーバについて発表しました。月間20TBを捌いているのですが、皮肉なことにトラフィックの多くは中国からになってしまっているそうです。現在は openSUSE の公式リポジトリも CDN を使ってリポジトリへのアクセスを改善しようとしています。しかし、こちらは(費用面の問題からだと思いますが)小さなファイルの配布にのみ使用しており、引き続きこのミラーサーバーは必要になるとのことでした。

昼ご飯はみんなで大学の近くの食堂へ。

ローカルな食べ物をみんなで囲いました。ローカルの料理を選んでくれたのか、いくつか辛い料理がありました。麻婆豆腐は会社近くの中華料理屋の四川風麻婆豆腐のほうが辛かったです。

私の発表は午後最初の枠でした。ODC などでも話している xdg-autostart-generator の話です。Leap 15.5での解決は間に合わなかったものの、このタイトル。

集合写真

夜はボランティア、発表者とともに懇親会へ。ちょっと豪華な地元料理です。ボランティアは情報系の学生だけではなく、語学系の学生も多く駆り出されていました。この懇親会では、日本のアニメが好きという学生と一緒にご飯を食べました。

カンファレンスツアー

今年のカンファレンスツアーは重慶の中心部から2時間ほど離れた、大足石刻を見に行きました。地獄の図、天国の図、千手観音とどれもスケールの大きい仏像ですが、なんと、どれも崖の岩を直接掘って作られています。

こちらは地獄の図

こちらは天国の図

この千手観音も崖を掘って作られています。

晩御飯は重慶名物の火鍋!磁器口とよばれる古い町並みを再現した観光地の外れにひっそりと佇む、隠れ家的な火鍋レストランでの夕食でした。

辛い方は一番辛くない設定にしてあったそうですが、辛かったです。具材はほとんどホルモンでした。癖の強いものは辛い方に入れないと美味しく食べられないそうです。

重慶ってどんな場所?

場所と地形

重慶は中国のほぼ中央の内陸部にある都市です。2023年10月時点では、COVID-19 以降の制限が解除されきっておらず、日本からの直行便は大阪からに限られており、北京や上海を経由して8時間程度で行くことができます。


大きな地図を表示

街の中心部は長江と嘉陵江という大きな合流地点にあります。大きな川沿いなので、広大な平地かというとそうではなく、高い丘や山に囲まれた谷になっています。このような場所に、3千万もの人が住んでいるということで、山沿いに高層ビル、タワマンが並ぶ姿は写真では伝わらない凄さです。

当然ですが、川沿いから内陸側に徒歩で行こうものなら、ものすごい階段を登る必要があります。エスカレーターやエレベーターはありません。

買い物、食べ物

町中にはいたるところにコンビニがあります。よく見かけるのはローソンとセブンイレブンです。日本や北京に比べると、かなり店舗は小さめですが、食料品を中心に馴染みのあるものが並んでいます。

朝ご飯はホテルと同じ建物にある飲食店を使いました。カウンター席4席のワンタンと小麺(ラーメン)屋では 100 g のワンタンスープが約220円で、これで十分お腹いっぱいになります。

観光地だとちょっと高いです。麻婆茄子丼は約500円でした。

困るのが注文です。簡単な英語も伝わりません。写真つきのメニューがあって、指差しができれば良いのですが、それもない場合は困ります。メニューはなんとなく何かは漢字から想像が付きます。あるお店では、何が聞かれているのか分からなかったところ、「熱」「冷」のように書いてくれました(漢字が読めることがよく分かったな)。もちろん Google 翻訳も役立ちます。

ちなみに、支払いは基本 QR コード決済です。現金も当然使えますが、お釣りがなくて困ることがあるようです。今年から Alipay に日本のクレジットカードが登録できるようになったので、気軽に使えました。カードのせいか、最初の1回だけうまく決済できず焦りましたが、カードを変えて以降は大丈夫でした。

パンダ

本場とあって、重慶動物園にはたくさんのパンダがいます。そして大人気。動き回っている子のまわりには、人だかりができていました。ほとんどの子は昼前にも関わらず、気持ち良さそうにぐっすり。ちょっと酔っ払いみたいです。

夜景

川沿いはライトアップされ、夜景がきれいです。観光船も運行しています。

ロープウェイにも乗ってみました(写真なし)。橋が開通して、地下鉄が通るようになるまでは移動手段として使われていたそうですが、今はすっかり観光用です。

ホテルの近くには、洪崖洞とよばれる、崖沿いにホテルやレストランなどが集まった商業施設があります。これまた豪華なライトアップで、多くの観光客が押し寄せていました。

交通

市の中心部は地下鉄やモノレールが張り巡らされており、近距離であれば、1回40円程度で移動できます。もちろん支払いは Alipay です。Alipay で発行できる公共交通機関専用の QR コードを使って乗降できます。

歴史はとても浅く、このあとに紹介するモノレールの2号線の開業が最も古く2005年、路線のほとんどは2010年代になってからの開業で、どれも設備が新しいです。

中でも有名なのが、この李子坝 (Liziba) 駅。マンションの中を線路が貫いています。観光スポットになっており、駅前では多くの人がカメラを構えていました。

来年の開催は?

開催地の公募はこれからですが、早速、インドネシアチームが手を挙げています。少しでも興味のある方は、ぜひなんらかの発表を用意して参加してみてください。

the avatar of Nathan Wolf

Microsoft Teams Rooms The Easy Way with Logitech Tap Controller and Shure STEM Ceiling Microphone

This particular article is targeting a Microsoft Administrator or IT technician who is tasked with building a Teams Conference room. I am not naturally a Microsoft Administrator and after successfully accomplishing building a simple to use, appliance like, Microsoft Team conference room for an enterprise environment. I was compelled to publish this process because it […]
a silhouette of a person's head and shoulders, used as a default avatar

4 Nuevas Características de Plasma 6 – Vídeo de Nicco

Hoy os presento el vídeo «4 Nuevas Características de Plasma 6» creado por Niccolò Venerandi, miembro de KVDG (KDE Visual Design Group) y que recientemente tuvimos en el blog hablando de aspectos visuales del esperado Plasma 6 en Akademy 2023 de Tesalónica.

4 Nuevas Características de Plasma 6 – Vídeo de Nicco

Dentro de los comunicadores más desacados de la Comunidad KDE tenemos a Niccolò Venerandi, un desarrollador que invierte parte de su tiempo en crear grandes vídeos donde muestra funcionalidades, progresos y estados de desarrollo de los proyectos que se desarrollan bajo el paraguas de KDE.

En esta ocasión os presento 4 nuevas características de Plasma 6: vista general, nuevos paneles flotantes, nueva ventana de configuración de ventanas y los gestos 2D. ¡Dentro vídeo!

Calendario para el lanzamiento de Plasma 6

Aprovecho la entrada para rececordar el calendario de lanzamientos previsto para el desarrollo de Plasma 6. Según el calendario oficial, estos son las fechas para anotar en el calendario:

  • 8 de noviembre de 2023: Alfa – KDE Gear 24.01.75 / KDE Plasma 5.80.0 / KDE Frameworks 5.245.0.
  • 29 de noviembre de 2023: Beta 1 – KDE Gear 24.01.80 / KDE Plasma 5.90.0 / KDE Frameworks 5.246.0.
  • 20 de diciembre de 2023: Beta 2 – KDE Gear 24.01.85 / KDE Plasma 5.91.0 / KDE Frameworks 5.247.0.
  • 10 de enero de 2024: Release Candidate 1 – KDE Gear 24.01.90 / KDE Plasma 5.92.0 / KDE Frameworks 5.248.0.
  • 31 de enero de 2024: Release Candidate 2 – KDE Gear 24.01.95 / KDE Plasma 5.93.0 / KDE Frameworks 5.249.0.
  • 21 de febrero de 2024: Publicación Tarball privada – KDE Gear 24.02.0 / KDE Plasma 6.0 / KDE Frameworks 6.0.
  • 28 de febrero de 2024: Publicación pública – KDE Gear 24.02.0 / KDE Plasma 6.0 / KDE Frameworks 6.0.

Personalmente os anuncio que yo iré al ritmo que me marque KDE Neon, mi distribución de cabecera y que cuando se pase a Plasma 6 yo iré detrás.

Mientras tanto, os recuerdo que sigue en marcha el concurso para buscar el nuevo fondo de pantalla por defecto del escritorio… que hay ya muchas aportaciones y que todavía estás a tiempo de participar.

4 Nuevas Características de Plasma 6 - Vídeo de Nicco

La entrada 4 Nuevas Características de Plasma 6 – Vídeo de Nicco se publicó primero en KDE Blog.

the avatar of Alessandro de Oliveira Faria

IA gera modelos 3D em minutos.

Esta totalmente dominado a capacidade de transformar textos em imagens 2D através de ferramentas de IA como Midjourney, DallE 3 da OpenAI, Leonardo AI e Stable Diffusion. Agora, a Stability AI, responsável pelo Stable Diffusion, está avançando para desenvolver modelos 3D a partir de prompts em tempo recorde com seu novo recurso, o Stable 3D AI. Este instrumento revolucionário tem como objetivo descomplicar a elaboração de conteúdo 3D, facilitando a criação de objetos 3D texturizados de alta qualidade.

Foi apresentado um vídeo demonstrativo sobre a facilidade de se criar modelos 3D a partir de instruções textuais, similar ao processo usado em artes 2D com IA. Os modelos 3D representam o próximo desafio a ser superado pela inteligência artificial. O Stable 3D é um marco na área de modelagem 3D, ao automatizar um processo que historicamente demandava habilidades especializadas e tempo considerável.

Crie modelos 3D através de instruções textuais com o auxílio da IA

O Stable 3D possibilita que mesmo aqueles sem conhecimento na área, gerar modelos 3D preliminares em questão de minutos. Basta escolher uma imagem, ilustração ou fornecer uma instrução textual. A ferramenta, a partir dessas informações, desenvolve um modelo 3D, eliminando etapas manuais de modelagem e texturização. Os modelos produzidos pelo Stable 3D são disponibilizados no formato padrão “.obj”, compatível com a maioria dos softwares 3D, permitindo edições posteriores em programas renomados como Blender e Maya, ou até sua integração em motores de jogos como Unreal Engine 5 ou Unity.

O Stable 3D não só torna o processo de criação 3D mais simples, mas também mais econômico. Ele busca democratizar o cenário para designers, artistas e desenvolvedores autônomos, habilitando a geração de inúmeros objetos 3D diariamente a um custo reduzido. Tal avanço tem o potencial de revolucionar setores como desenvolvimento de jogos, animação e realidade virtual, nos quais a produção de objetos 3D é fundamental.

Stable 3D: Uma Inovação da Stability AI

O surgimento do Stable 3D é uma evidência do progresso na criação de conteúdo 3D. Essa capacidade de transformar instruções textuais em modelos 3D em poucos minutos destaca a evolução contínua da inteligência artificial no universo da criação digital. À medida que essa tecnologia avança, antecipamos uma transição de modelos básicos para estruturas de malha detalhadas.

Neste momento, a Stability AI oferece uma prévia exclusiva do Stable 3D para quem demonstrar interesse. Os interessados podem se conectar com a Stability AI através de sua página de contato para experimentar diretamente o poder dessa ferramenta e avaliar sua capacidade de revolucionar a produção 3D.

Stable 3D, com sua abordagem inovadora, tem o potencial de redefinir a criação de conteúdo 3D. Tornando a geração de objetos 3D mais acessível e automatizada, esta ferramenta sinaliza uma nova fase na criação de conteúdo digital. Sua versatilidade, amplificada pela compatibilidade com os formatos padrão de arquivos 3D, torna-a essencial para profissionais independentes, sejam eles designers, artistas ou desenvolvedores.

A junção de IA com a habilidade de converter texto em modelos 3D pode remodelar áreas como gráficos computacionais, animação, design de games e produção cinematográfica:

Para Gráficos Computacionais e Animação:

  • Fluxo Aprimorado: A necessidade de esculpir cada modelo manualmente é reduzida, permitindo aos artistas aprimorar um modelo pré-gerado.
  • Prototipagem Acelerada: Ajustes nas instruções textuais permitem uma exploração de design mais ágil.

No Campo de Design de Jogos:

  • Produção de Ativos Agilizada: Reduzindo o tempo tradicionalmente gasto na criação de ativos 3D.
  • Foco em Qualidade: O design de jogos pode se centrar mais na mecânica e narrativa, elevando a qualidade final.

Na Indústria Cinematográfica:

  • Economia: Diminui os custos associados à produção de modelos 3D de alta qualidade.
  • Mais Espaço para Inovação: A geração simplificada permite aos cineastas abraçar riscos criativos.

Questões Universais:

  • Acesso Ampliado: O processo descomplicado convida uma diversidade maior de participantes para a modelagem 3D.
  • Colaboração Interdisciplinar: Profissionais de áreas diversas podem se beneficiar, desde arquitetos até engenheiros.
  • Questões de Direitos: A facilidade de criação exige soluções robustas para questões de direitos autorais.

A habilidade de gerar modelos 3D a partir de texto representa uma evolução paralela ao que vimos com a geração de arte AI 2D nos últimos anos. À medida que novas informações emergem sobre essa inovação, continuaremos a compartilhar insights. Para mais informações, o site oficial da Stability AI é um recurso valioso.

Finalmente, enquanto a produção 3D guiada por texto promete eficiência e inovação, desafios como direitos autorais e qualidade precisarão ser abordados, sem esquecer das implicações no mercado de trabalho especializado.

a silhouette of a person's head and shoulders, used as a default avatar

#openSUSE Tumbleweed revisión de la semana 44 de 2023

Tumbleweed es una distribución de GNU/Linux «Rolling Release» o de actualización contínua. Aquí puedes estar al tanto de las últimas novedades.

Tumbleweed

openSUSE Tumbleweed es la versión «rolling release» o de actualización continua de la distribución de GNU/Linux openSUSE.

Hagamos un repaso a las novedades que han llegado hasta los repositorios esta semana.

El anuncio original lo puedes leer en el blog de Dominique Leuenberger, publicado bajo licencia CC-by-sa, en este este enlace:

Termina la semana 44 lo que implica que ya llevamos transcurrido el 83% de este año 2023. ¿Y esto qué importancia tiene para Tumbleweed? La verdad que no mucha, ya que simplemente va actualizándos snapshot a snapshot gracias al aporte de una comunidad que la mantiene siempre al día.

En esta semana se han publicado 6 nuevas snapshots (1026, 1028, 1029, 1030, 1031, y 1101). La 1027 fue descartada debido a problemas con XFCE (xfconf 4.18.2 – que fue revertido a su versión 4.18.1 para la snapshot 1028)

Estas 6 snapshots publicadas han traido, entre otras muchas actualizaciones las siguientes:

  • LLVM 17.0.3
  • Qemu 8.1.2
  • VLC 3.0.19
  • Boost 1.83.0
  • systemd
  • Linux kernel 6.5.9
  • openSSL 3.1.4
  • PHP 8.2.12
  • Mozilla Firefox 119.0
  • shadow 4.14.2
  • strace y linux-glibc-devel 6.6: preparando el camino para el próximo Kernel 6.6
  • Poppler 23.10.0

Y se puede destacar los siguientes paquetes de software que estarán disponibles en breve:

  • gnome-shell/mutter 45.1
  • libxml2 2.11.5
  • xfconf 4.18.3
  • libvirt 9.9.0
  • fwupd 1.9.7
  • binutils 2.41
  • Linux kernel 6.6

Si quieres estar a la última con software actualizado y probado utiliza openSUSE Tumbleweed la opción rolling release de la distribución de GNU/Linux openSUSE.

Mantente actualizado y ya sabes: Have a lot of fun!!

Enlaces de interés

Geeko_ascii

——————————–