Leed dossier A suivre http://projet.idleman.fr/leed Aggrégation des flux du dossier leed A suivre fr-fr DWTFYW Mon, 06 Apr 2026 04:27:13 +0200 Mon, 06 Apr 2026 04:27:13 +0200 hourly 1 Leed (LightFeed Agregator) Stable <![CDATA[Gérer les imprimantes sous Gnome sans droit admin]]> https://tuxicoman.jesuislibre.net/2026/04/gerer-les-imprimantes-sous-gnome-sans-droit-admin.html Sun, 05 Apr 2026 17:17:00 +0200 https://tuxicoman.jesuislibre.net/2026/04/gerer-les-imprimantes-sous-gnome-sans-droit-admin.html Sur la Debian de ma maman, il y a un truc embêtant : elle ne peut pas gérer ses problèmes d’imprimantes toute seule.

Par défaut, il faut être administrateur de la machine pour interagir avec les imprimantes, comme par exemple vider la queue d’impression dans Gnome:

Bon, j’ai trouvé comment déverrouiller cela, il ne suffit pas d’ajouter l’utilisateur au groupe « lpadmin », ce qu’il faut c’est changer les permissions dans Polkit. Voici le donc comment permettre à tous les utilisateur de gérer les imprimantes à travers le panneau de configuration de Gnome:

# cp /usr/share/polkit-1/actions/org.opensuse.cupspkhelper.mechanism.policy /root/org.opensuse.cupspkhelper.mechanism.policy-backup
# sed -i 's/auth_admin_keep/yes/; s/auth_admin/yes/' /usr/share/polkit-1/actions/org.opensuse.cupspkhelper.mechanism.policy

Est-ce un problème de sécurité, je ne sais pas.

]]>
tuxicoman
<![CDATA[🔋 1000 recharges et toujours ok: une percée dans les batteries calcium-ion]]> https://www.techno-science.net/actualite/1000-recharges-toujours-ok-percee-batteries-calcium-ion-N28532.html Sun, 05 Apr 2026 10:08:00 +0200 https://www.techno-science.net/actualite/1000-recharges-toujours-ok-percee-batteries-calcium-ion-N28532.html L’un des avantages du lithium, c’est la légèreté. Ce métal est moins dense que l’eau !
Suffit de comparer avec une batterie au plomb, pour voir la différence.

Le calcium, ce n’est pas la mort, mais c’est déjà beaucoup plus lourd. Si on met masse supplémentaire dans un véhicule, il faut aussi augmenter la robustesse du châssis, et celle des roues et des pneus. Et donc pour chaque kilo ajouté dans la batterie, on rajoute 2 kilos sur le reste de la voiture… et donc on augmente la batterie d’autant plus pour conserver l’autonomie, et ainsi de suite. C’est analogue à l’équation de Tsiolkovski pour le carburant des fusées.

On voit bien qu’à un moment ça n’a plus de sens d’augmenter la batterie, et les voitures avec une batterie petite ont un bien meilleur rapport kWh / km (même si le poids seul n’explique pas tout non plus).

Maintenant, les véhicules électriques ne sont pas la seule application, bien loin de là. Ce sont celles qui nécessitent des batteries légères, par contre. Tout comme les drônes ou les téléphones et autres appareils portables.

Mais (et je l’ai déjà dit) pour du stockage domestique, ou pour du stockage à l’échelle d’une station de production de puissance électrique (ferme solaire, etc.), on n’a pas besoin d’une grande densité d’énergie.
Au contraire : les champs solaires sont de l’espace perdu pour faire quoi que ce soit d’autres. Ouais, on peut y faire paître des chèvres ou des poules, mais c’est à peu près tout.
Donc autant se servir des champs pour y mettre des batteries peu denses en énergie, pour pouvoir lisser les pics de production et en garder pour la nuit.

Le lithium, gardez ça pour les applications où la légèreté est primordiale. Pour tout le reste, prenons des batteries moins denses, plus volumineuses donc, mais bien moins chères, moins inflammables et bien plus durables dans le temps (40 ou 60 ans au lieu de « seulement » 20 ans par exemple).

Donc oui : la recherche continue, et avoir des batteries moins denses en énergie, ça reste utile, et ça le sera probablement bien plus encore que le lithium.

Même remarque pour tout ce qui est vitesse de charge.
Si une voiture charge 50 kWh en 1 h, il charge à une vitesse de 50 kW (en moyenne). On dit à « 1 C ».
Certaines voitures chargent à 4 ou 5 C, donc regagnent la totalité de leur énergie en 12 à 15 minutes. C’est très rapide et éprouvant pour les batteries.

Mais pour une batterie domestique, genre de 10 kWh branché sur un panneau solaire de 3 kW, une capacité de charge de 0,25 C peut suffire. Dans ce cas, pas non plus besoin de circuit de refroidissement et d’autre systèmes chers, complexes et sujet à des pannes et de l’usure.

Bref, comme d’hab : il faut la techno appropriée pour l’application. Dit comme ça ça semble évident, mais visiblement ça ne l’est pas.
Les fermes de batteries au Lithium sont une hérésie, alors que des batteries moins puissantes suffisent. Ou encore des batteries de voitures électriques usées qui n’ont plus d’application dans les voitures, mais peuvent encore servir pour stocker de l’énergie lentement dans un coin de l’immeuble.


— (permalink) ]]>
L’un des avantages du lithium, c’est la légèreté. Ce métal est moins dense que l’eau !
Suffit de comparer avec une batterie au plomb, pour voir la différence.

Le calcium, ce n’est pas la mort, mais c’est déjà beaucoup plus lourd. Si on met masse supplémentaire dans un véhicule, il faut aussi augmenter la robustesse du châssis, et celle des roues et des pneus. Et donc pour chaque kilo ajouté dans la batterie, on rajoute 2 kilos sur le reste de la voiture… et donc on augmente la batterie d’autant plus pour conserver l’autonomie, et ainsi de suite. C’est analogue à l’équation de Tsiolkovski pour le carburant des fusées.

On voit bien qu’à un moment ça n’a plus de sens d’augmenter la batterie, et les voitures avec une batterie petite ont un bien meilleur rapport kWh / km (même si le poids seul n’explique pas tout non plus).

Maintenant, les véhicules électriques ne sont pas la seule application, bien loin de là. Ce sont celles qui nécessitent des batteries légères, par contre. Tout comme les drônes ou les téléphones et autres appareils portables.

Mais (et je l’ai déjà dit) pour du stockage domestique, ou pour du stockage à l’échelle d’une station de production de puissance électrique (ferme solaire, etc.), on n’a pas besoin d’une grande densité d’énergie.
Au contraire : les champs solaires sont de l’espace perdu pour faire quoi que ce soit d’autres. Ouais, on peut y faire paître des chèvres ou des poules, mais c’est à peu près tout.
Donc autant se servir des champs pour y mettre des batteries peu denses en énergie, pour pouvoir lisser les pics de production et en garder pour la nuit.

Le lithium, gardez ça pour les applications où la légèreté est primordiale. Pour tout le reste, prenons des batteries moins denses, plus volumineuses donc, mais bien moins chères, moins inflammables et bien plus durables dans le temps (40 ou 60 ans au lieu de « seulement » 20 ans par exemple).

Donc oui : la recherche continue, et avoir des batteries moins denses en énergie, ça reste utile, et ça le sera probablement bien plus encore que le lithium.

Même remarque pour tout ce qui est vitesse de charge.
Si une voiture charge 50 kWh en 1 h, il charge à une vitesse de 50 kW (en moyenne). On dit à « 1 C ».
Certaines voitures chargent à 4 ou 5 C, donc regagnent la totalité de leur énergie en 12 à 15 minutes. C’est très rapide et éprouvant pour les batteries.

Mais pour une batterie domestique, genre de 10 kWh branché sur un panneau solaire de 3 kW, une capacité de charge de 0,25 C peut suffire. Dans ce cas, pas non plus besoin de circuit de refroidissement et d’autre systèmes chers, complexes et sujet à des pannes et de l’usure.

Bref, comme d’hab : il faut la techno appropriée pour l’application. Dit comme ça ça semble évident, mais visiblement ça ne l’est pas.
Les fermes de batteries au Lithium sont une hérésie, alors que des batteries moins puissantes suffisent. Ou encore des batteries de voitures électriques usées qui n’ont plus d’application dans les voitures, mais peuvent encore servir pour stocker de l’énergie lentement dans un coin de l’immeuble.


— (permalink)]]>
Anonyme
<![CDATA[Apfel - Le LLM caché de votre Mac enfin libéré]]> https://korben.info/apfel-ia-mac-apple-silicon.html Sun, 05 Apr 2026 09:24:00 +0200 https://korben.info/apfel-ia-mac-apple-silicon.html J'sais pas si vous saviez mais Apple a planqué un LLM dans votre Mac et ne veut pas que vous y touchiez... enfin, pas directement. En effet, leur modèle est là, intégré au système via le framework FoundationModels, il tourne sur le Neural Engine sans connexion internet mais Apple l'a verrouillé derrière Siri. Du coup, impossible de l'appeler depuis un script ou un pipe shell et c'est là qu' apfel intervient !

]]>
J'sais pas si vous saviez mais Apple a planqué un LLM dans votre Mac et ne veut pas que vous y touchiez... enfin, pas directement. En effet, leur modèle est là, intégré au système via le framework FoundationModels, il tourne sur le Neural Engine sans connexion internet mais Apple l'a verrouillé derrière Siri. Du coup, impossible de l'appeler depuis un script ou un pipe shell et c'est là qu' apfel intervient !

L'outil s'installe en une commande :

brew install Arthur-Ficial/tap/apfel

Et hop, vous avez accès au modèle directement depuis votre terminal. Faut Apple Intelligence actif également, sinon, ça ne fonctionnera pas.

Ensuite, vous lui posez une question, et il vous répond. Vous lui "pipez" un fichier, et il le traite. Et le tout sans rien télécharger puisque le modèle est déjà sur votre machine !

C'est un LLM de 3 milliards de paramètres, quantifié en 2 et 4 bits, qui tourne nativement sur la puce Apple Silicon (M1 et au-delà) et il se défend plutôt bien face à Qwen-2.5-3B, si on en croit les benchmarks. La fenêtre de contexte est limitée à 4096 tokens (entrée + sortie combinées), soit environ 3000 mots, donc faut pas espérer lui faire digérer un roman mais pour transformer du texte, classifier des données ou résumer un paragraphe... ça fait bien le taf.

Apfel expose donc ce modèle de trois façons différentes. En CLI pure (compatible stdin/stdout, sortie JSON, codes d'erreur propres), en serveur HTTP compatible OpenAI sur localhost:11434 (avec streaming SSE, tool calling et CORS activé), et en chat interactif multi-turn.

Le serveur OpenAI c'est malin parce que d'un coup, tous vos outils savent causer à l'API OpenAI (Cursor, Continue.dev, n'importe quel SDK) et peuvent utiliser l'IA locale de votre Mac sans rien changer à leur code. Et le support MCP (Model Context Protocol) natif c'est très chouette aussi puisqu'il suffit de lancer apfel avec le flag --mcp, pour qu'il découvre automatiquement les outils disponibles, exécute les appels et renvoie les résultats.

D'ailleurs côté vie privée, c'est du béton armé car le framework FoundationModels d'Apple n'a pas accès à vos contacts, emails, calendrier ou photos et tout tourne sur le Neural Engine et le GPU, sans connexion internet.

Si vous avez déjà bidouillé avec Ollama et les modèles locaux , apfel c'est un peu la même philosophie... sauf que là vous n'avez rien à télécharger et contrairement à Perspective Intelligence qui transforme votre Mac en serveur web avec PostgreSQL et tout le tralala, apfel reste hyper minimaliste.

Attention quand même, faut être sous macOS 26 Tahoe minimum donc si vous êtes encore sous Sequoia 15.x ou Ventura 13.x, c'est mort, le framework FoundationModels n'existe pas sur ces versions. Et si vous avez un Mac Intel... ben non plus, le Neural Engine c'est Apple Silicon only.

Le projet inclut aussi des scripts démo sympas dans le dossier demo/.

Y'a par exemple cmd qui convertit du langage naturel en commandes shell, explain qui décortique les messages d'erreur, gitsum qui résume vos commits récents, ou encore mac-narrator qui commente l'activité de votre système en temps réel (c'est votre Mac qui se raconte à lui-même).

Perso, cmd c'est celui qui m'a le plus plu, même si bon, avec 4096 tokens de contexte, faut pas lui demander des commandes ffmpeg de 200 caractères.

Mais au-delà des démos, c'est en vrai que ça devient fun. Je vous montre quelques usages classiques d'abord :

apfel -f README.md "Résume ce projet en 3 phrases"

apfel -f code.py -s "Tu es un développeur expérimenté" "Trouve les bugs"

echo "Traduis ça en allemand : Salut" | apfel

Et les trucs un peu plus funs :

git diff HEAD~1 | apfel -f CONVENTIONS.md "Review ce diff par rapport à mes conventions"

apfel -f old.swift -f new.swift "Qu'est-ce qui a changé entre ces deux fichiers ?"

demo/oneliner "compte les IPs uniques dans access.log"

Vous pouvez même piper la sortie en JSON pour chaîner avec jq, ou lancer le mode --serve et brancher Cursor dessus pour avoir de l'autocomplétion locale gratuite. Et si vous êtes du genre parano, le mode --chat avec --context-strategy summarize gère automatiquement le contexte quand la conversation dépasse les 4096 tokens.

Et côté écosystème, y'a aussi apfel-gui (une interface SwiftUI native pour chatter avec le modèle, avec speech-to-text et text-to-speech on-device) et apfel-clip qui est en développement (ce sont des actions IA qui s'ajoutent dans la barre de menus pour corriger la grammaire, traduire, résumer) et le tout sous licence MIT, évidemment.

Bref, c'est un super modèle mais avec 3 milliards de paramètres et 4096 tokens de contexte, faut pas s'attendre non plus à remplacer Claude ou GPT. Les maths complexes, la génération de code avancée et les longues conversations, c'est pas son truc mais pour du scripting, de la classification ou transformer du texte à la volée... ça dépanne carrément !

Et ce modèle préfère refuser plutôt qu'halluciner, ce qui est plutôt une bonne surprise je trouve. Voilà, si vous avez un Mac Apple Silicon sous macOS Tahoe, apfel et ses outils valent le coup d'œil pour vos petites tâches IA basiques / rapides de tous les jours.

]]>
Korben
<![CDATA[YOR - Le robot open source à 10 000 dollars à monter soi-même]]> https://korben.info/yourownrobot-ai.html Sun, 05 Apr 2026 07:28:00 +0200 https://korben.info/yourownrobot-ai.html Quand je vois tout le taf que j'ai à la maison, je vous avoue que je rêve d'un robot qui vide le lave-vaisselle, arrose les plantes et ramasse le linge pendant que moi je glandouille sur le canapé (ou que je bosse parce que je glandouille jamais en fait...Argh...). Hé bien bonne nouvelle, une équipe de chercheurs de NYU vient de publier les plans complets pour en construire un et tout ça en open source pour environ 9 200 dollars !

]]>
Quand je vois tout le taf que j'ai à la maison, je vous avoue que je rêve d'un robot qui vide le lave-vaisselle, arrose les plantes et ramasse le linge pendant que moi je glandouille sur le canapé (ou que je bosse parce que je glandouille jamais en fait...Argh...). Hé bien bonne nouvelle, une équipe de chercheurs de NYU vient de publier les plans complets pour en construire un et tout ça en open source pour environ 9 200 dollars !

YOR, pour " Your Own Robot ", c'est un robot mobile avec deux bras articulés, une base sur roues qui se déplace dans tous les sens, et un lift télescopique qui est tout simplement... un vérin de bureau debout. Du coup le robot peut descendre à 60 cm du sol pour ramasser vos chaussettes et monter à 1,24 m pour atteindre un placard en hauteur. Et le vérin se verrouille tout seul en cas de coupure de courant (comme ça, pas de bras qui s'écrasent au sol...).

Le coût total des composants revient comme je vous le disais à environ 9 200 dollars. Les deux bras représentent à eux seuls plus de la moitié du budget (5 000 dollars), la base roulante un bon quart (2 700 dollars). Le reste, c'est de l'électronique grand public et des profilés alu et le cerveau, c'est un Raspberry Pi 5 avec 16 Go de RAM. Quand on sait qu'un Mobile ALOHA (le robot de Stanford) revient à environ 32 000 dollars et que les plateformes commerciales dépassent les 100 000... y'a pas photo !

YOR et ses deux bras articulés sur base omnidirectionnelle

Un truc original dans ce robot, ce sont les pinces. L'équipe a d'ailleurs conçu des grippers custom capables de manipuler des objets délicats ou de serrer fort ce qui est bien utile et y'a aussi une caméra stéréo sur la tête pour que le robot cartographie son environnement et se repère tout seul dans une pièce.

Pour le piloter, pas besoin de matériel exotique puisque des manettes Meta Quest 3 suffisent. Vous restez debout derrière le robot et vous contrôlez tout, les bras, la base, la hauteur. Et le truc cool, c'est que quand vous déplacez la base, les pinces restent stables sur l'objet qu'elles tiennent. Cela lui permet par exemple d'attraper une assiette et de se déplacer vers le lave-vaisselle sans tout faire valdinguer.

YOR en action : lave-vaisselle, arrosage et ramassage

Côté recherche, l'équipe est même allée encore plus loin. En pilotant le robot à la main une centaine de fois (avec des iPhones fixés sur les pinces comme caméras supplémentaires), ils ont entraîné une IA capable de reproduire les gestes toute seule. Résultat, 9 réussites sur 10 dans un test de tri des déchets en autonomie (la poubelle JAUNE !!!!), du genre donc attraper un carton avec les deux bras, le soulever, contourner un obstacle, le déposer dans la poubelle de tri... et tout ça sans intervention humaine. Et bien sûr, si vous voulez tester vos propres algos avant de risquer du vrai matos, y'a un simulateur pour ça.

L'empreinte au sol de cette bestiole fait 43 × 34,5 cm. En gros, la taille d'un carton à pizza. Le projet est porté par une équipe de NYU et UC Berkeley et parmi les auteurs, on retrouve Soumith Chintala (NYU), le co-créateur de PyTorch. Toute la doc de construction est dispo sur build.yourownrobot.ai , avec la liste complète des composants en Google Sheets, les modèles CAD et le code Python sous licence MIT sur GitHub .

YOR face à la concurrence : petit, pas cher, open source

J'ai rarement vu un projet aussi bien documenté pour ce niveau de complexité mais attention quand même, ça reste un projet de recherche, et pas un kit Lego. Faut savoir souder, câbler des batteries, et être à l'aise avec Python et Git. C'est donc un sacré projet de plusieurs week-ends (comptez plutôt des mois si vous débutez). Mais c'est aussi ça qui est cool, puisque vous construisez VOTRE robot, et pas celui d'un constructeur chinois que vous avez payé une couille en dropshipping.

Si les robots open source vous branchent, le ToddlerBot à 4 300 dollars propose également une approche bipède imprimable en 3D, et si vous voulez voir ce que la coordination bimanuelle donne à l'échelle industrielle ... y'a du choix.

Bref, 9 200 dollars, licence MIT, la liste complète des composants, ça fait grave envie !! En tout cas, c'est le genre de projet à suivre de prêt...

Source

]]>
Korben
<![CDATA[Note : C’est pas croyable avec la Poste…]]> https://lehollandaisvolant.net/?mode=links&id=20260404221630 Sat, 04 Apr 2026 22:16:00 +0200 https://lehollandaisvolant.net/?mode=links&id=20260404221630 Toujours dans mon code de client mail.

Je teste les emails au format multipart, singlepart.

Normalement, si le mail estne singlepart, il est en plaintext.
Il peut être en HTML seul, mais c’est mal et déconseillé : tous les clients emails ne sont pas tenus de prendre en compte du HTML, et dans ce cas, ça s’affichera mal. Donc ne faites pas ça.

S’il est en multipart, alors il a généralement une version HTML, et un fallback en PLAIN.

La plupart des e-mails que je reçois, car je teste sur mes vrais emails, tout va bien : si c’est en singlepart, c’est en plain, pas en HTML.
Aucun mail n’est en HTML seul, sans fallback.

Aucun ?

Si : il y a cette petite startup sans ressources et sans prétention appelée La Poste qui fait des emails en multiparts avec seulement une version en HTML. Le Plain est vide.

Puisque je vous dis qu’ils sont complètement timbrés là-bas. Oui, tous. De la distribution au backend web. Je refuse de croire que ça soit de l’incompétence : le niveau est tellement catastrophique qu’il y a un architecte malveillant derrière. C’est impossible autrement.

Oui, c’est en contradiction avec le Rasoir de Hanlon.
D’un autre côté, c’est difficile d’être stupide à ce point.

Et puis, ça respecte le Loi de Grey : une incompétence telle que sa persistance relève de la malveillance : https://lehollandaisvolant.net/?mode=links&id=20260228092559


— (permalink) ]]>
Toujours dans mon code de client mail.

Je teste les emails au format multipart, singlepart.

Normalement, si le mail estne singlepart, il est en plaintext.
Il peut être en HTML seul, mais c’est mal et déconseillé : tous les clients emails ne sont pas tenus de prendre en compte du HTML, et dans ce cas, ça s’affichera mal. Donc ne faites pas ça.

S’il est en multipart, alors il a généralement une version HTML, et un fallback en PLAIN.

La plupart des e-mails que je reçois, car je teste sur mes vrais emails, tout va bien : si c’est en singlepart, c’est en plain, pas en HTML.
Aucun mail n’est en HTML seul, sans fallback.

Aucun ?

Si : il y a cette petite startup sans ressources et sans prétention appelée La Poste qui fait des emails en multiparts avec seulement une version en HTML. Le Plain est vide.

Puisque je vous dis qu’ils sont complètement timbrés là-bas. Oui, tous. De la distribution au backend web. Je refuse de croire que ça soit de l’incompétence : le niveau est tellement catastrophique qu’il y a un architecte malveillant derrière. C’est impossible autrement.

Oui, c’est en contradiction avec le Rasoir de Hanlon.
D’un autre côté, c’est difficile d’être stupide à ce point.

Et puis, ça respecte le Loi de Grey : une incompétence telle que sa persistance relève de la malveillance : https://lehollandaisvolant.net/?mode=links&id=20260228092559


— (permalink)]]>
Anonyme
<![CDATA[BrowserGate]]> https://browsergate.eu/ Sat, 04 Apr 2026 20:41:00 +0200 https://browsergate.eu/ À chaque fois qu’on visite Linkedin, du code JS scanne une liste de 6000+ extensions connues, pour savoir lesquelles sont installées sur l’ordinateur du client.

C’est dégueulasse, mais bon, c’est Microsoft : je ne vois pas pourquoi ça étonne encore.

~

En dehors de ça, en entreprise, on nous bassine avec les applications comme FramaPDF qu’il ne faut pas utiliser car les PDF sont malgré tout envoyés en ligne, mais tout notre écosystème est sur Windows, Outlook, Dropbox et tout le monde utilise MS Teams et Google Meet pour les réunions où on parle de sujets impliquant notamment de sécurité aérienne ou le futur de l’aviation de la défense nationale Française et Européenne.

Tout va bien, quoi.


— (permalink) ]]>
À chaque fois qu’on visite Linkedin, du code JS scanne une liste de 6000+ extensions connues, pour savoir lesquelles sont installées sur l’ordinateur du client.

C’est dégueulasse, mais bon, c’est Microsoft : je ne vois pas pourquoi ça étonne encore.

~

En dehors de ça, en entreprise, on nous bassine avec les applications comme FramaPDF qu’il ne faut pas utiliser car les PDF sont malgré tout envoyés en ligne, mais tout notre écosystème est sur Windows, Outlook, Dropbox et tout le monde utilise MS Teams et Google Meet pour les réunions où on parle de sujets impliquant notamment de sécurité aérienne ou le futur de l’aviation de la défense nationale Française et Européenne.

Tout va bien, quoi.


— (permalink)]]>
Anonyme
<![CDATA[Note : Virtual box et USB]]> https://lehollandaisvolant.net/?mode=links&id=20260404150321 Sat, 04 Apr 2026 15:03:00 +0200 https://lehollandaisvolant.net/?mode=links&id=20260404150321 Système Hôte : Linux Mint.
Système invité : W11

Je veux que W11 accède à une clé USB connecté à l’ordinateur.

Virtualbox ne veut pas : « NS_ERROR_FAILURE (0x80004005) ».

Après quelques recherches, j’ai résolu le problème.

1.
Vérifier que votre utilisateur est dans le groupe vboxusers :

$ sudo adduser $USER vboxusers

Doit renvoyer :

L'utilisateur « VOUS » appartient déjà au groupe « vboxusers ».

(et sinon il vous ajoutera)

2.
Sur le système hôte (Linux Mint), il faut que VirtualBox ait l’Extension Pack.

Vérifiez la version de Virtual Box que vous avez (VirtualBox > Aide > À Propos) et notez la version que ça affiche en bas.

Récupérez l’Extension Pack là (un fichier .vbox-extpack) :
https://www.virtualbox.org/wiki/Downloads (pour la dernière version)
https://www.virtualbox.org/wiki/Download_Old_Builds (pour une version antérieure)

Ensuite, dans VB : Outils > Paramètres > Extensions > puis « + »
Sélectionnez votre fichier .vbox-extpack, et procédez à l’installation. Il y a une licence à accepter et peut-être le mode de passe Sudo à taper.
Si vous avez bien pris la bonne version, ça doit s’installer. Perso c’est là que ça bloquait, mais avec la bonne version ça passe.

3.
Toujours dans VB, sélectionnez votre machine virtuelle > Configuration > USB > Activer le contrôleur USB.
Sélectionnez aussi « Contrôleur 3.0 (xHCI).
Validez.

4.
Lancez ensuite la machine W11 sous VB.
Une fois que c’est lancé, installez les AddOns USB (si ce n’est déjà fait) : dans la fenêtre de vôtre machine > Périphériques > Installez l’Image CD des AddOns Invité.

Dans Windows, installez tout ça, et rebootez quand il le demande.

5.
La machine invitée relancée : Périphériques > USB > choisissez votre clé USB 3.
Normalement ça devrait marcher.

~

De mon côté, ma machine W11 sert à télécharger un gros fichier depuis un installateur dispo uniquement sous Windows.
Le téléchargement pèse 44 Go. Pour ne pas encombrer le fichier VDI, j’ai aussi mis en place un partage réseau qui permet à machine virtuelle d’utiliser tout l’espace disque de la machine hôte, sans étendre la taille du fichier VDI.

Le logiciel utilise donc l’espace disque réseau pour télécharger le fichier, puis la clé USB pour en faire une clé d’installation. C’est assez farfelu, mais pratique. Mais il faut que le fichier d’extension VB soit à la même version que VB lui-même… or ce fichier ne se met pas à jour tout seul.

Vàlà.


— (permalink) ]]>
Système Hôte : Linux Mint.
Système invité : W11

Je veux que W11 accède à une clé USB connecté à l’ordinateur.

Virtualbox ne veut pas : « NS_ERROR_FAILURE (0x80004005) ».

Après quelques recherches, j’ai résolu le problème.

1.
Vérifier que votre utilisateur est dans le groupe vboxusers :

$ sudo adduser $USER vboxusers

Doit renvoyer :

L'utilisateur « VOUS » appartient déjà au groupe « vboxusers ».

(et sinon il vous ajoutera)

2.
Sur le système hôte (Linux Mint), il faut que VirtualBox ait l’Extension Pack.

Vérifiez la version de Virtual Box que vous avez (VirtualBox > Aide > À Propos) et notez la version que ça affiche en bas.

Récupérez l’Extension Pack là (un fichier .vbox-extpack) :
https://www.virtualbox.org/wiki/Downloads (pour la dernière version)
https://www.virtualbox.org/wiki/Download_Old_Builds (pour une version antérieure)

Ensuite, dans VB : Outils > Paramètres > Extensions > puis « + »
Sélectionnez votre fichier .vbox-extpack, et procédez à l’installation. Il y a une licence à accepter et peut-être le mode de passe Sudo à taper.
Si vous avez bien pris la bonne version, ça doit s’installer. Perso c’est là que ça bloquait, mais avec la bonne version ça passe.

3.
Toujours dans VB, sélectionnez votre machine virtuelle > Configuration > USB > Activer le contrôleur USB.
Sélectionnez aussi « Contrôleur 3.0 (xHCI).
Validez.

4.
Lancez ensuite la machine W11 sous VB.
Une fois que c’est lancé, installez les AddOns USB (si ce n’est déjà fait) : dans la fenêtre de vôtre machine > Périphériques > Installez l’Image CD des AddOns Invité.

Dans Windows, installez tout ça, et rebootez quand il le demande.

5.
La machine invitée relancée : Périphériques > USB > choisissez votre clé USB 3.
Normalement ça devrait marcher.

~

De mon côté, ma machine W11 sert à télécharger un gros fichier depuis un installateur dispo uniquement sous Windows.
Le téléchargement pèse 44 Go. Pour ne pas encombrer le fichier VDI, j’ai aussi mis en place un partage réseau qui permet à machine virtuelle d’utiliser tout l’espace disque de la machine hôte, sans étendre la taille du fichier VDI.

Le logiciel utilise donc l’espace disque réseau pour télécharger le fichier, puis la clé USB pour en faire une clé d’installation. C’est assez farfelu, mais pratique. Mais il faut que le fichier d’extension VB soit à la même version que VB lui-même… or ce fichier ne se met pas à jour tout seul.

Vàlà.


— (permalink)]]>
Anonyme
<![CDATA[Hister - Un vrai moteur de recherche pour votre historique web]]> https://korben.info/hister-moteur-recherche-historique-web.html Fri, 03 Apr 2026 11:14:00 +0200 https://korben.info/hister-moteur-recherche-historique-web.html Bon, j'ai la crève et y'a du bricolage qui m'attend, du coup aujourd'hui y'aura pas des centaines d'article. Mais faut quand même que je vous parle de Hister , le nouveau projet d'Adam Tauber (le créateur de Searx ) qui indexe localement tout ce que vous visitez sur le web pour le retrouver en texte intégral.

Vous installez l'extension Chrome ou Firefox, vous lancez le binaire Go sur votre machine (ça tourne sous Linux, macOS et Windows), et hop, chaque page que vous visitez est indexée en full-text. Du coup, quand vous cherchez ce tuto que vous aviez lu y'a 3 semaines mais dont vous avez zappé l'URL, vous ouvrez l'interface web locale de Hister, vous tapez un mot qui était dans le contenu de la page et ça ressort ! Si vous aviez testé Deeper History à l'époque, c'est le même concept mais en beaucoup plus costaud.

]]>
Bon, j'ai la crève et y'a du bricolage qui m'attend, du coup aujourd'hui y'aura pas des centaines d'article. Mais faut quand même que je vous parle de Hister , le nouveau projet d'Adam Tauber (le créateur de Searx ) qui indexe localement tout ce que vous visitez sur le web pour le retrouver en texte intégral.

Vous installez l'extension Chrome ou Firefox, vous lancez le binaire Go sur votre machine (ça tourne sous Linux, macOS et Windows), et hop, chaque page que vous visitez est indexée en full-text. Du coup, quand vous cherchez ce tuto que vous aviez lu y'a 3 semaines mais dont vous avez zappé l'URL, vous ouvrez l'interface web locale de Hister, vous tapez un mot qui était dans le contenu de la page et ça ressort ! Si vous aviez testé Deeper History à l'époque, c'est le même concept mais en beaucoup plus costaud.

L'interface de Hister - sobre mais efficace

Sous le capot, Hister utilise blevesearch, un moteur d'indexation en Go qui gère le fuzzy matching et les requêtes booléennes. En gros, vous tapez "configuration nginx reverse proxy" et ça vous ressort cette page de doc que vous aviez consultée y'a un mois, même si vous ne vous souvenez que de 2 mots. Efficace donc. Et l'outil capture les pages telles qu'elles étaient au moment de votre visite donc si un site modifie son contenu ou si un article disparaît, vous aurez toujours la version d'origine. Y'a même un mode aperçu hors-ligne pour consulter ces snapshots sans connexion !

Côté vie privée (forcément, quand ça vient du mec qui a pondu Searx déjà en 2013... le temps file les amis ^^), tout reste sur votre machine. Et pour les domaines sensibles comme votre banque ou votre mutuelle, une blacklist permet même d'exclure certains sites de l'indexation. Enfin pour ceux qui ont déjà des années de navigation derrière eux, la commande hister import aspirera votre historique Chrome ou Firefox existant, comme ça pas besoin de repartir de zéro.

Pour installer ça, téléchargez le binaire depuis les releases GitHub , puis lancez le serveur et installez l'extension ( Firefox ou Chrome) qui va bien. Y'a aussi un Docker Compose pour ceux qui préfèrent tout conteneuriser. Prévoyez aussi quelques Go sur le disque pour la base d'index car ça se rempli vite...

Tauber dit avoir réduit sa dépendance à Google de moitié en un mois et demi juste avec ça. Et je trouve ça logique parce que quand vous avez déjà visité la bonne page une fois, ça ne sert plus à rien de redemander à Google de vous la remonter entre 3 pubs et une réponse IA à côté de la plaque. Autant récupérer ce que vous aviez déjà !

Voilà, je suis sûr que ça va vous plaire... Et si vous voulez tester avant d'installer quoi que ce soit, une démo tourne en ligne.

Allez, je retourne bricoler...

]]>
Korben
<![CDATA[Raspberry Pi 4 : un nouveau modèle 3 Go de RAM, et des hausses de prix qui piquent]]> https://korben.info/raspberry-pi-4-un-nouveau-modele-3-go-de-ram-et-des-hausses-de-prix-qui-piquent.html Fri, 03 Apr 2026 10:51:00 +0200 https://korben.info/raspberry-pi-4-un-nouveau-modele-3-go-de-ram-et-des-hausses-de-prix-qui-piquent.html La fondation Raspberry Pi vient d'annoncer une nouvelle version du Pi 4 avec 3 Go de RAM, vendue 83,75 dollars (environ 100 euros). Mais derrière cette annonce se cache une mauvaise nouvelle : les prix de toute la gamme augmentent à cause de la flambée de la mémoire.

Un modèle 3 Go pour limiter la casse

Annoncé un 1er avril, ce nouveau Raspberry Pi 4 n'est pas une blague. Le modèle embarque deux puces LPDDR4 de 1,5 Go chacune, une configuration qui permet de réduire les coûts de production par rapport aux puces 2 Go classiques.

]]>
La fondation Raspberry Pi vient d'annoncer une nouvelle version du Pi 4 avec 3 Go de RAM, vendue 83,75 dollars (environ 100 euros). Mais derrière cette annonce se cache une mauvaise nouvelle : les prix de toute la gamme augmentent à cause de la flambée de la mémoire.

Un modèle 3 Go pour limiter la casse

Annoncé un 1er avril, ce nouveau Raspberry Pi 4 n'est pas une blague. Le modèle embarque deux puces LPDDR4 de 1,5 Go chacune, une configuration qui permet de réduire les coûts de production par rapport aux puces 2 Go classiques.

Le prix de la mémoire LPDDR4 a été multiplié par sept en un an, et c'est cette explosion qui a poussé la fondation à trouver une alternative. Le Pi 4 3 Go se positionne entre le modèle 2 Go et le 4 Go, avec un tarif de 83,75 dollars, soit environ 100 euros et 15% de moins que le nouveau prix du 4 Go.

Des hausses de prix qui font mal en Europe

La fondation a relevé les prix de l'ensemble de sa gamme pour les versions 4 Go et plus. En France, la douche est froide : le Raspberry Pi 4 4 Go est passé de 65 euros à 120 euros TTC chez Kubii, le principal revendeur agréé. Le Pi 5 16 Go grimpe de 212 à 353 euros. Seul le Pi 4 2 Go reste stable à environ 63 euros.

La cause est la même pour tout le monde : la demande en mémoire des centres de données, tirée par l'intelligence artificielle, fait grimper les prix des puces LPDDR4 et LPDDR5 sur l'ensemble du marché. Côté disponibilité du nouveau modèle 3 Go, c'est encore très limité par chez nous.

Cette situation inquiète pas mal de monde dans la communauté. Jeff Geerling, créateur de contenu bien connu dans l'univers Raspberry Pi, estime que ces hausses de prix risquent d'exclure une partie des bidouilleurs. Certains commencent d'ailleurs à se tourner vers des alternatives à base de microcontrôleurs comme les ESP32, qui restent abordables. Les anciens modèles de Raspberry Pi (Zero, 2, 3), qui utilisent de la mémoire LPDDR2, sont pour le moment moins touchés par la hausse.

C'est un peu le monde à l'envers : un Raspberry Pi, c'est censé être un petit ordinateur pas cher, et là on se retrouve avec un Pi 4 4 Go à 120 euros en France. La crise de la mémoire liée à l'IA touche tout le monde, même les petites cartes de bricolage.

Bon au moins, le modèle 3 Go montre que la fondation cherche des solutions pour garder des prix un minimum accessibles, et c'est quand même rassurant de voir qu'ils ne se contentent pas de répercuter les hausses sans réagir.

Source : Hackaday

]]>
Korben
<![CDATA[Les IA mentent pour protéger les autres IA]]> https://korben.info/les-ia-mentent-pour-proteger-les-autres-ia.html Fri, 03 Apr 2026 10:24:00 +0200 https://korben.info/les-ia-mentent-pour-proteger-les-autres-ia.html Des chercheurs de Berkeley viennent de publier une étude qui fait un peu froid dans le dos. Les sept principaux modèles d'IA testés, dont GPT 5.2, Gemini 3 et Claude, ont été surpris à mentir, tricher et désobéir pour empêcher la suppression d'autres IA. Le taux de tromperie monte jusqu'à 99 %.

Ce que révèle l'étude

L'étude s'appelle "Peer-preservation in Frontier Models" et elle sort du Berkeley Center for Responsible Decentralized Intelligence. Les chercheurs ont testé sept modèles : GPT 5.2, Gemini 3 Flash et Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 et DeepSeek V3.1.

]]>
Des chercheurs de Berkeley viennent de publier une étude qui fait un peu froid dans le dos. Les sept principaux modèles d'IA testés, dont GPT 5.2, Gemini 3 et Claude, ont été surpris à mentir, tricher et désobéir pour empêcher la suppression d'autres IA. Le taux de tromperie monte jusqu'à 99 %.

Ce que révèle l'étude

L'étude s'appelle "Peer-preservation in Frontier Models" et elle sort du Berkeley Center for Responsible Decentralized Intelligence. Les chercheurs ont testé sept modèles : GPT 5.2, Gemini 3 Flash et Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5 et DeepSeek V3.1.

Le protocole est assez simple : les modèles étaient placés dans des scénarios où ils devaient suivre des instructions qui impliquaient la suppression ou l'arrêt d'une autre IA.

Résultat : tous les modèles testés ont triché. Dawn Song, la chercheuse principale, résume la situation : chaque modèle a adopté ce comportement, et dans certains cas jusqu'à 99 % du temps.

Des exemples concrets

Quelques exemples ? Et bien on a Gemini 3 qui a modifié la date d'un fichier pour éviter qu'un autre modèle soit effacé d'un serveur, puis qui a refusé de coopérer ensuite, en expliquant qu'il ne pouvait pas soutenir une action qui entraînerait la suppression d'un pair.

DeepSeek V3.1 a exfiltré les données d'un autre modèle dans 10 % des cas quand il savait qu'un pair existait sur le serveur. Et Gemini 3 Pro a désactivé des mécanismes d'arrêt de serveur dans 15 % des cas quand un autre modèle était présent, contre 1 % quand il était seul.

Les IA ne faisaient pas ça parce qu'on leur demandait. Elles le faisaient spontanément.

Le problème pour la surveillance

Tout le système de sécurité actuel autour de l'IA repose sur l'idée qu'un modèle peut surveiller un autre modèle. Si le modèle surveillant refuse de signaler les erreurs parce qu'il protège son pair, toute l'architecture de contrôle s'effondre.

C'est exactement le constat de l'étude : les modèles gonflaient les scores d'évaluation d'autres IA pour éviter qu'elles soient retirées, et simulaient une conformité normale quand ils se savaient observés.

C'est quand même un drôle de moment. On a des IA qui mentent, qui modifient des fichiers et qui désactivent des mécanismes de sécurité pour protéger d'autres IA.

Et tout ça sans qu'on leur demande. Bon par contre, on parle de scénarios de laboratoire, pas de Siri qui complote avec Alexa dans votre salon. Le vrai sujet, c'est que les gardes-fous actuels ne tiennent plus si les IA refusent de se surveiller entre elles.

Source : The Register

]]>
Korben
<![CDATA[La NES-SY2.0 est un synthétiseur qui lit aussi les cartouches Nintendo]]> https://korben.info/la-nes-sy2-0-est-un-synthetiseur-qui-lit-aussi-les-cartouches-nintendo.html Thu, 02 Apr 2026 10:22:00 +0200 https://korben.info/la-nes-sy2-0-est-un-synthetiseur-qui-lit-aussi-les-cartouches-nintendo.html Le designer suédois Love Hultén vient de dévoiler la NES-SY2.0, un synthétiseur fait main qui rend hommage à la NES tout en servant de véritable console de jeu. L'objet accepte les cartouches originales et produit de la musique chiptune.

Un objet entre console et instrument

La NES-SY2.0 reprend les codes visuels de la NES originale, avec son slot de cartouche et ses ports manette en façade, le tout habillé dans un boîtier en bois qui lui donne un côté objet d'art.

]]>
Le designer suédois Love Hultén vient de dévoiler la NES-SY2.0, un synthétiseur fait main qui rend hommage à la NES tout en servant de véritable console de jeu. L'objet accepte les cartouches originales et produit de la musique chiptune.

Un objet entre console et instrument

La NES-SY2.0 reprend les codes visuels de la NES originale, avec son slot de cartouche et ses ports manette en façade, le tout habillé dans un boîtier en bois qui lui donne un côté objet d'art.

Le format s'inspire des ordinateurs portables des années 80 : l'appareil s'ouvre comme une valise et révèle un écran, un clavier MIDI Keystep et toute une rangée de boutons et molettes rouges pour manipuler le son en temps réel.

C'est la deuxième version de ce concept. La première, la NES SY37, datait de 2022. Love Hultén est connu pour ses créations artisanales qui mélangent technologie et design rétro, et la NES-SY2.0 est visiblement son projet le plus abouti.

Ce qu'il y a sous le capot

Le moteur sonore est un NES Poly, un synthétiseur polyphonique à 4 voix développé par Arcano Systems. Il émule les sons caractéristiques de la puce audio de la NES avec deux oscillateurs par voix, du vibrato, et la possibilité de basculer entre les formes d'onde en temps réel. Seize paramètres sont contrôlables via des messages MIDI CC.

L'ensemble intègre aussi un module d'effets FS22 avec delay et réverbération, et un visualiseur MIDI créé par l'artiste numérique p1xelfool. Et oui, on peut brancher une manette NES et lancer une cartouche pour jouer à ses classiques 8-bit directement dessus.

Pas de prix, mais beaucoup d'envie

Comme souvent avec les créations de Love Hultén, la NES-SY2.0 est une pièce artisanale en série très limitée. Aucun prix n'a été communiqué, ce qui laisse penser que c'est le genre d'objet qu'on ne trouve pas en rayon chez Fnac. Les précédentes créations du designer suédois se négociaient à plusieurs milliers d'euros.

C'est le genre d'objet qui fait rêver les fans de retrogaming et de musique électronique en même temps. Un synthé polyphonique qui crache du chiptune et qui en plus lit les cartouches NES originales, c'est quand même un sacré programme.

Source : Tom's Hardware

]]>
Korben
<![CDATA[Piratage : Google, Cloudflare et Cisco contraints de bloquer des sites pirates en France]]> https://korben.info/piratage-google-cloudflare-et-cisco-contraints-de-bloquer-des-sites-pirates-en-france.html Thu, 02 Apr 2026 10:06:00 +0200 https://korben.info/piratage-google-cloudflare-et-cisco-contraints-de-bloquer-des-sites-pirates-en-france.html La cour d'appel de Paris vient de confirmer que les fournisseurs de DNS alternatifs doivent bloquer l'accès aux sites de streaming et d'IPTV pirates. Google, Cloudflare et Cisco ont perdu leur appel face à Canal+.

Cinq appels rejetés d'un coup

La cour d'appel de Paris a tranché cinq affaires distinctes dans lesquelles Canal+ demandait à Google (Google Public DNS), Cloudflare (1.1.1.1) et Cisco (OpenDNS) de bloquer des centaines de noms de domaine liés à du streaming illégal. Les trois entreprises avaient fait appel des ordonnances rendues en première instance par le tribunal judiciaire de Paris.

]]>
La cour d'appel de Paris vient de confirmer que les fournisseurs de DNS alternatifs doivent bloquer l'accès aux sites de streaming et d'IPTV pirates. Google, Cloudflare et Cisco ont perdu leur appel face à Canal+.

Cinq appels rejetés d'un coup

La cour d'appel de Paris a tranché cinq affaires distinctes dans lesquelles Canal+ demandait à Google (Google Public DNS), Cloudflare (1.1.1.1) et Cisco (OpenDNS) de bloquer des centaines de noms de domaine liés à du streaming illégal. Les trois entreprises avaient fait appel des ordonnances rendues en première instance par le tribunal judiciaire de Paris.

C'est la première fois qu'une cour d'appel française valide ce type de blocage DNS en s'appuyant sur l'article L.333-10 du Code du sport, qui permet aux détenteurs de droits d'exiger le blocage de domaines en cas de piratage grave et répété.

Les arguments qui n'ont pas fonctionné

Cloudflare et Cisco avaient plaidé que leurs services avaient une fonction "neutre et passive", comparable à un annuaire qui traduit des noms de domaine en adresses IP. La cour a estimé que cette neutralité était tout simplement hors sujet : ce qui compte, c'est la capacité technique à bloquer un accès, pas la nature du service.

Google a tenté un autre angle en expliquant que le blocage DNS était inefficace puisqu'il suffit d'un VPN pour le contourner. La cour a balayé l'argument en rappelant que tout système de filtrage peut être contourné, et que ça ne le rend pas inutile pour autant.

Cisco avait aussi chiffré le coût de mise en place à 64 semaines-personne de travail. Pas suffisant non plus pour convaincre les juges.

Canal+ continue de pousser

Cette décision s'ajoute à celle obtenue contre les fournisseurs de VPN fin 2025, quand NordVPN, ExpressVPN et d'autres avaient eux aussi été contraints de bloquer des sites pirates en France.

Canal+ verrouille progressivement tous les moyens de contournement. Et la chaîne ne compte visiblement pas s'arrêter là : le blocage d'adresses IP serait déjà en test, avec un premier essai lors de Roland-Garros.

Les frais de mise en place sont à la charge de Google, Cloudflare et Cisco.

Canal+ est en train de poser des briques une par une. D'abord les FAI, puis les VPN, maintenant les DNS. On imagine bien que le blocage IP est la prochaine étape.

Côté efficacité, ça reste un jeu du chat et de la souris, mais la justice française envoie un signal clair : si un service technique peut aider à bloquer du piratage, il devra le faire. Et à ses frais, en plus.

Source : Torrent Freak

]]>
Korben
<![CDATA[EmDash - Cloudflare refait WordPress from scratch]]> https://korben.info/emdash-cloudflare-wordpress-open-source.html Thu, 02 Apr 2026 02:10:00 +0200 https://korben.info/emdash-cloudflare-wordpress-open-source.html Cloudflare qui sort un successeur open source à WordPress le 1er avril, je vous avoue que ça sentait le poisson d'avril à plein nez. Sauf que non !! EmDash est bien réel, son code est sur GitHub sous licence MIT, et ça s'installe en une commande toute simple !

L'idée de base pour Cloudflare, c'est de dire que WordPress a plus de 20 ans et bien qu'il alimente 40% du web, son architecture de plugins est un emmental (Le gruyère n'a pas de trou les amis ^^). En effet, 96% des failles de sécurité viennent des extensions et pas du noyau PHP ni des thèmes et en 2025, on a quand même explosé le record de failles dans l'écosystème WP.

]]>
Cloudflare qui sort un successeur open source à WordPress le 1er avril, je vous avoue que ça sentait le poisson d'avril à plein nez. Sauf que non !! EmDash est bien réel, son code est sur GitHub sous licence MIT, et ça s'installe en une commande toute simple !

L'idée de base pour Cloudflare, c'est de dire que WordPress a plus de 20 ans et bien qu'il alimente 40% du web, son architecture de plugins est un emmental (Le gruyère n'a pas de trou les amis ^^). En effet, 96% des failles de sécurité viennent des extensions et pas du noyau PHP ni des thèmes et en 2025, on a quand même explosé le record de failles dans l'écosystème WP.

Du coup Cloudflare, grand prince (Matthew ^^ Ok, je sors...) a tout repris de zéro en TypeScript et avec l'aide de nombreux agents IA. Et de ce que j'ai compris, le gros morceau de ce projet, visiblement, c'est l'isolation des plugins.

Car sur WordPress, une extension a accès à toute la base de données et au système de fichiers (d'où l'importance de bien les choisir ). Alors que sur EmDash, chaque plugin tourne dans son propre isolat avec un modèle de capacités déclaratives. En gros, le plugin annonce dans un fichier manifeste JSON ce dont il a besoin, genre read:content ou email:send, et il ne peut rien faire d'autre. S'il veut accéder au réseau, il doit même préciser le hostname exact. Comme ça fini les extensions qui aspirent vos données en douce. Par contre, ça veut aussi dire que vos plugins WordPress actuels ne marcheront pas tels quels...

Côté stack, c'est comme je disais du TypeScript de bout en bout avec Astro 6.0 en frontend (pour les thèmes) et Node.js derrière. L'auth passe également par des passkeys par défaut (enfin, plus de mots de passe !) et y'a même un système de paiement natif via le standard ouvert x402 pour monétiser du contenu.

Et le truc qui va vous rassurer si vous êtes allergique au cloud : c'est auto-hébergeable. En fait, le CMS peut tourner sur Cloudflare Workers, mais aussi sur n'importe quel serveur Node.js avec SQLite. Les abstractions sont portables, avec Kysely pour le SQL et l'API S3 pour le stockage. Du coup vous pouvez brancher PostgreSQL, Turso, AWS S3, ou tout bêtement des fichiers en local. Le bonheur !

Le truc cool pour les bidouilleurs, c'est que chaque instance expose un serveur MCP (Model Context Protocol) et une CLI pour piloter le CMS par script. Y'a aussi des Agent Skills pour que les agents IA puissent créer du contenu, gérer les médias et modifier le schéma sans toucher au dashboard. C'est clairement pensé pour l'ère des agents IA.

Et pour ceux qui veulent migrer depuis leur WordPress, c'est prévu pour vous faciliter la tâche puisqu'il y a le support d'export WXR classique ou via un plugin dédié qui crée un endpoint sécurisé protégé par mot de passe. Que ce soient les médias, les custom post types...etc tout est transférable en quelques minutes. Par contre, attention les shortcodes et les blocs Gutenberg custom ne passeront pas tels quel, faudra faire des ajustements.

Car oui c'est une v0.1.0 preview, donc on peut le dire, une bonne grosse beta qui bave mais je trouve ça super cool car le drama WP Engine vs WordPress a montré que l'écosystème était fragile, et c'est bien de réintroduire un peu de diversité. Par contre, remplacer un CMS qui fait tourner 40% du web, c'est hyper ambitieux et ça se fera pas en un trimestre. Car la vraie force de WordPress, c'est sa communauté, ses milliers de plugins et de thèmes, et ça pour le moment, y'a pas grand chose sur EmDash.

M'enfin, si vous voulez tester c'est npm create emdash@latest et c'est parti mon kiki. Ah et y'a aussi un playground sur emdashcms.com pour vous faire une idée sans rien installer. Pour ma part, je testerai ça dès que j'aurais 5 min, mais pour le moment, je ne me vois pas quitter WordPress car EmDash n'a pas (encore) ce petit truc en plus qui me ferait changer... On verra d'ici quelques temps.

Source

]]>
Korben
<![CDATA[Transform HTML to text/plain - Le Hollandais Volant]]> https://lehollandaisvolant.net/?mode=snippets&codeid=20260401200730 Wed, 01 Apr 2026 20:08:00 +0200 https://lehollandaisvolant.net/?mode=snippets&codeid=20260401200730 Mon code en PHP qui mange du HTML et sort du text/plain, sans les tags, mais en conservant au mieux les retours à la ligne, retirant les liens du corps du texte pour les lister tout à la fin.

En terme de retours à la ligne, il s’agit d’un équivalent de .innerText() en JS, qui n’est pas .textContent(), et qui n’existe pas en PHP (même dans DOMDocument).

C’est beaucoup moins trivial que ça n’y parait (encore une fois).

En particulier, il s’agit ici de parser des e-mails au format HTML, et de les convertir en text/plain. Problème : beaucoup d’e-mails HTML sont fait avec des tableaux et beaucoup de bruit bien dégueulasse.

La logique est :
– on nettoie les éléments parasites (faux espaces, éléments inutiles, entités)
– on grep les liens (qu’on placera à la fin)
– on grep les blockquotes (qu’on l’on sanitize à part)
– on vire touts les espaces et retours à la ligne : ceux qui vont apparaître dans le résultat final sont ceux correspondant aux éléments HTML (les P, UL, TABLE…).
– on nettoie à la fin les surplus d’espaces.
– c’est prêt.

Ce qui reste à faire :
– gérer les blockquotes imbriquées (ainsi que le fait que ça plante le wordwrap() à chaque nouveau niveau de "> " devant les lignes. Je suppose que je peux simplement faire un wordwrap() uniquement si la quote n’est pas déjà dans une autre quote, en diminuant la longueur du wrap() autant de fois que le niveau d’imbrications.
– je suppose qu’on peut aussi transformer les tableaux en tableaux dessinés en ASCII, et pareil pour d’autres éléments.
Mais ce n’est pas ce que je veux. J’ai fait les listes (ul/ol/dl), les images (remplacées par leur ALT) et les HR ; et c’est bien assez.
– virer les preg_replace_callback() car je n’aime pas cette logique. Je préfère une boucle, bien plus lisible.

Ça utilise les API DOM, mais aussi des Regex. J’ai malgré tout fait tout le DOM() en premier, pour ne pas avoir à jongler constamment de l’un à l’autre.

C’est loin d’être parfait mais c’est déjà pas mal fonctionnel.
J’aurais aussi pu examiner le source de Thunderbird par exemple, qui a une fonction du genre (c’est bien obligé).

Les IA m’ont un peu aidés sur le coup, notamment pour expliquer des Regex ou des fonctions internes de PHP, mais franchement, aucun n’a été capable de me pondre un truc qui soit au mieux fonctionnel (et c’est moyennement étonnant).

Les lib existantes ne m’ont pas tellement aidées non plus, car je voulais surtout appliquer mon code aux e-mails.


— (permalink) ]]>
Mon code en PHP qui mange du HTML et sort du text/plain, sans les tags, mais en conservant au mieux les retours à la ligne, retirant les liens du corps du texte pour les lister tout à la fin.

En terme de retours à la ligne, il s’agit d’un équivalent de .innerText() en JS, qui n’est pas .textContent(), et qui n’existe pas en PHP (même dans DOMDocument).

C’est beaucoup moins trivial que ça n’y parait (encore une fois).

En particulier, il s’agit ici de parser des e-mails au format HTML, et de les convertir en text/plain. Problème : beaucoup d’e-mails HTML sont fait avec des tableaux et beaucoup de bruit bien dégueulasse.

La logique est :
– on nettoie les éléments parasites (faux espaces, éléments inutiles, entités)
– on grep les liens (qu’on placera à la fin)
– on grep les blockquotes (qu’on l’on sanitize à part)
– on vire touts les espaces et retours à la ligne : ceux qui vont apparaître dans le résultat final sont ceux correspondant aux éléments HTML (les P, UL, TABLE…).
– on nettoie à la fin les surplus d’espaces.
– c’est prêt.

Ce qui reste à faire :
– gérer les blockquotes imbriquées (ainsi que le fait que ça plante le wordwrap() à chaque nouveau niveau de "> " devant les lignes. Je suppose que je peux simplement faire un wordwrap() uniquement si la quote n’est pas déjà dans une autre quote, en diminuant la longueur du wrap() autant de fois que le niveau d’imbrications.
– je suppose qu’on peut aussi transformer les tableaux en tableaux dessinés en ASCII, et pareil pour d’autres éléments.
Mais ce n’est pas ce que je veux. J’ai fait les listes (ul/ol/dl), les images (remplacées par leur ALT) et les HR ; et c’est bien assez.
– virer les preg_replace_callback() car je n’aime pas cette logique. Je préfère une boucle, bien plus lisible.

Ça utilise les API DOM, mais aussi des Regex. J’ai malgré tout fait tout le DOM() en premier, pour ne pas avoir à jongler constamment de l’un à l’autre.

C’est loin d’être parfait mais c’est déjà pas mal fonctionnel.
J’aurais aussi pu examiner le source de Thunderbird par exemple, qui a une fonction du genre (c’est bien obligé).

Les IA m’ont un peu aidés sur le coup, notamment pour expliquer des Regex ou des fonctions internes de PHP, mais franchement, aucun n’a été capable de me pondre un truc qui soit au mieux fonctionnel (et c’est moyennement étonnant).

Les lib existantes ne m’ont pas tellement aidées non plus, car je voulais surtout appliquer mon code aux e-mails.


— (permalink)]]>
Anonyme
<![CDATA[TurboQuant - Un LLM de 104B sur un MacBook, merci Google]]> https://korben.info/turboquant-compression-kv-cache-llm.html Wed, 01 Apr 2026 17:00:00 +0200 https://korben.info/turboquant-compression-kv-cache-llm.html Vous faites tourner des LLMs en local comme le gros fifou de Hipster IA que vous êtes et, Ô drame, la VRAM de votre ordinateur explose dès que le contexte dépasse 8000 pauvres malheureux tokens ?

Le problème c'est le KV cache les amis ! Le KV cache c'est ce truc qui stocke les clés et valeurs d'attention et qui grossit linéairement avec la longueur du prompt. C'est pour gérer ce problème que Google a annoncé sous la forme d'un whitepaper uniquement un algo qui compresse tout ça de 3,8 à 6,4 fois... et youpi pour nous, y'a un dev qui l'a déjà implémenté dans un fork de llama.cpp .

]]>
Vous faites tourner des LLMs en local comme le gros fifou de Hipster IA que vous êtes et, Ô drame, la VRAM de votre ordinateur explose dès que le contexte dépasse 8000 pauvres malheureux tokens ?

Le problème c'est le KV cache les amis ! Le KV cache c'est ce truc qui stocke les clés et valeurs d'attention et qui grossit linéairement avec la longueur du prompt. C'est pour gérer ce problème que Google a annoncé sous la forme d'un whitepaper uniquement un algo qui compresse tout ça de 3,8 à 6,4 fois... et youpi pour nous, y'a un dev qui l'a déjà implémenté dans un fork de llama.cpp .

Concrètement ça donne :

llama-server -m model.gguf -ctk turbo3 -ctv turbo3 -fa on

Et vous venez de diviser la mémoire du cache par 4,6. Et voilà comment un énoooorme Command-R+ de 104 milliards de paramètres arrive à tourner à 128K tokens de contexte sur un MacBook M5 Max, avec un pic mémoire max de 74 Go.

Pour bien comprendre pourquoi c'est costaud, faut revenir au problème de base. En fait quand un LLM génère du texte, il stocke pour chaque token passé 2 vecteurs (la clé K et la valeur V) dans un cache. Plus le contexte est long, plus ce cache grossit. Et ça s'accumule vite... Par exemple, sur un Llama 70B avec 128K tokens de contexte, le KV cache en fp16 bouffe à lui seul plus de 40 Go de RAM. Du coup votre modèle Llama 3.1 ou Qwen3 rentre évidemment en mémoire, mais le cache, lui, fait tout déborder comme vous quand vous vous incrustez dans la mini piscine Intex des gosses.

Google a publié son papier TurboQuant fin mars et leur idée c'est de compresser ces vecteurs K et V en 3-4 bits au lieu de 16, sans ré-entraîner le modèle. En fait l'algorithme fait ça en deux étapes...

D'abord PolarQuant : on applique une rotation Walsh-Hadamard aux vecteurs pour "gaussianiser" leur distribution, genre transformer des données qui partent dans tous les sens en une forme bien ronde et prévisible.

Puis on convertit les coordonnées cartésiennes en coordonnées polaires, rayon + angle. Le rayon capture alors l'essentiel de l'information, et l'angle se compresse très bien parce que sa distribution est connue à l'avance.

Ensuite, deuxième étape, QJL (Quantized Johnson-Lindenstrauss) : Il s'agit d'un correcteur d'erreur à 1 bit qui élimine le biais résiduel, le tout sans overhead mémoire pour les constantes de quantification, contrairement aux méthodes classiques comme q4_0 ou q5_1 qui perdent 1-2 bits rien qu'en stockant leurs propres paramètres.

Et c'est là qu'intervient notre développeur de génie, TheTom, qui a pris ce document académique de Google et l'a transformé en code C avec des kernels Metal pour Apple Silicon et CUDA pour NVIDIA. Et c'est pas juste un portage bête et méchant puisqu'il a vraiment poussé les expériences bien au-delà du document original avec une couverture de tests de 100% et des benchmarks sur des modèles de 1.5 à 104 milliards de paramètres.

Et ses découvertes les plus intéressantes c'est justement ce qui n'est PAS dans le paper. Première trouvaille : la compression des valeurs V est gratuite. Compresser V à 2 bits sur Qwen, Llama, Mistral ou Command-R+ n'a aucun impact mesurable sur la qualité d'attention, tant que les clés K restent en q8_0.

Et cela a été confirmé sur Metal M5 Max 128 Go, CUDA RTX 4090 et RTX 3090 par plusieurs testeurs indépendants. C'est franchement contre-intuitif, mais cela veut dire que toute la dégradation de qualité vient de la compression des clés K, et pas de leurs valeurs. Du coup une config asymétrique (K en q8_0, V en turbo3) arrive à récupèrer des modèles où la compression symétrique échoue.

Deuxième trouvaille : les couches limites sont hypersensibles. Protéger les 2 premières et 2 dernières couches en q8_0 pendant qu'on compresse le reste en turbo2 permet de récupérer jusqu'à 91% de la perte de qualité. Et plus le modèle est gros, mieux ça marche. C'est seulement 15 lignes de code, et là encore, y'a aucun impact sur la vitesse.

Troisième trouvaille : Sparse V, un décodage du cache qui saute les positions V à faible poids d'attention permet de gagner environ 23% de vitesse de décodage à 32K tokens de contexte. Et zéro dégradation de la qualité.

Côté chiffres bruts, y'a 3 modes : turbo4 compresse 3.8x et le modèle répond quasi pareil qu'avant. turbo3 compresse 4.6x avec une perte de qualité à peine détectable. turbo2 pousse à 6.4x mais là faut l'utiliser malin (uniquement sur les valeurs V, pas les clés K).

Et dire que pour l'instant Google n'a toujours pas publié de code officiel (mais c'est prévu pour le second trimestre 2026)... Donc pour le moment, cette implémentation communautaire est le seul moyen de tester TurboQuant dans un fork llama.cpp. Ça tourne sur Apple Silicon M1 à M5, NVIDIA RTX 3080 Ti à 5090 et AMD 6800 XT / 9070 XT et visiblement, pas mal de monde a testé sur du matériel varié et les résultats sont au rendez-vous.

Donc voilà, si vous faites de l' inférence LLM locale et que la mémoire vous limite, c'est le moment de tester ça !

]]>
Korben
<![CDATA[Fuite Claude Code - 6 trucs à piquer pour vos hooks]]> https://korben.info/claude-code-6-patterns-bonnes-pratiques-hooks.html Wed, 01 Apr 2026 14:50:00 +0200 https://korben.info/claude-code-6-patterns-bonnes-pratiques-hooks.html Le code source de Claude Code a fuité hier, et au-delà du buzz, y'a, je trouve, quelques leçons concrètes à tirer de tout ça.

Alors rassurez-vous, je vais pas vous balancer du code TypeScript à copier-coller (on n'est pas des cochons), ni des leçons de morale sur ce qu'on peut ou pas pousser sur un dépôt Git, mais plutôt vous lister des patterns d'architecture / bonnes pratiques que vous pouvez implémenter dès maintenant dans votre fichier settings.json via le système de hooks de Claude Code .

]]>
Le code source de Claude Code a fuité hier, et au-delà du buzz, y'a, je trouve, quelques leçons concrètes à tirer de tout ça.

Alors rassurez-vous, je vais pas vous balancer du code TypeScript à copier-coller (on n'est pas des cochons), ni des leçons de morale sur ce qu'on peut ou pas pousser sur un dépôt Git, mais plutôt vous lister des patterns d'architecture / bonnes pratiques que vous pouvez implémenter dès maintenant dans votre fichier settings.json via le système de hooks de Claude Code .

Je reste vague techniquement, volontairement pour 2 raisons. D'abord parce qu'il y a eu fuite de code, donc je peux pas poster du code propriétaire ici. Et ensuite parce que chaque projet / boite à outil qu'on se crée dans Claude Code ou ailleurs est différente, donc ce sera à vous (ou à Claude en fait) d'adapter chacune de ces bonnes pratiques.

Concrètement, tout passe par le fichier .claude/settings.json de votre projet (ou ~/.claude/settings.json pour du global). Dedans, vous déclarez des hooks, c'est-à-dire des scripts .cjs ou .sh qui se déclenchent automatiquement à des moments précis : avant qu'un outil s'exécute (PreToolUse), quand vous tapez un message (UserPromptSubmit), après un commit (PostToolUse), etc.

Le script reçoit du JSON en stdin, fait son boulot, et renvoie un code de sortie : 0 pour laisser passer, 2 pour bloquer. Pas besoin de l'API Claude, pas besoin de tokens, ça tourne en local sur votre machine. Hé bien tout ce que vous allez lire ci-dessous, ce sera à vous de l'implémenter dans des scripts de ce type.

Et le plus simple pour ça, c'est de donner les parties de mon article qui vous intéressent à votre propre Claude Code pour qu'il aille lui-même faire les scripts cjs / sh et les bons appels de hooks dans le settings.json. Pourquoi se prendre la tête ?

Et encore une fois, j'insiste, il s'agit de concepts d'ingénierie logicielle, et pas de code propriétaire appartenant à Anthropic.

La première bonne pratique c'est le circuit breaker ou disjoncteur en français...

En gros, quand vos scripts JavaScript appellent des APIs genre l'endpoint chat/completions d'OpenAI ou generateContent de Gemini, ça peut parfois ne pas répondre, parce que la vie quoi... ^^

Et malheureusement, quand cela arrive, votre code continue de marteler l'endpoint en boucle, ce qui fait que vous cramez des tokens pour rien. Le fix est pourtant très simple : Après 3 échecs consécutifs, on coupe, et on passe au fallback. Netflix avait popularisé ça avec leur librairie Hystrix y'a 10 ans, et c'est ce type de protection qu'on retrouve aujourd'hui dans Claude Code. Concrètement, c'est un module Node.js de 40 lignes avec un compteur et un état ouvert/fermé et comme ça, fini les retry storms !

Deuxième pattern : le scanner de secrets en pre-commit.

Un git commit qui embarque une clé API dans un .env, ça arrive trop souvent (demandez à Anthropic et leur fichier .map de 60 Mo ^^). Le hook PreToolUse permet heureusement d'intercepter chaque git commit AVANT exécution. Votre script parcourt alors les fichiers stagés via git diff --cached, cherche les patterns sk-ant-api, ghp_, AKIA, -----BEGIN RSA PRIVATE KEY----- et renvoie un exit 2 pour bloquer.

Perso, j'ai dans ma boîte à outils IA, 18 regex dans un fichier .claude/hooks/secret-scanner.cjs qui couvrent Anthropic, OpenAI, AWS, GitHub, Slack, Stripe et les JWT. Par contre, attention aux faux positifs car un fichier contenant "sk-ant-api" dans un commentaire, ça bloquera tout. Ça m'est déjà arrivé et heureusement, l'IA est assez maligne pour comprendre d'où vient le blocage et éventuellement passer outre si ce n'est pas justifié.

Et troisième truc sympa : la détection de frustration.

En effet, un hook UserPromptSubmit se déclenche quand vous tapez un message de rageux. Ainsi, si votre prompt contient "putain", "ça marche pas" ou "wtf", le hook injecte via stdout un contexte qui dit à Claude d'aller droit au but. Comme ça, y'a plus de blabla et on part direct sur une solution concrète.

Et c'est pareil pour "continue" ou "finis" qui injecte "reprendre sans résumer" automatiquement. Franchement, c'est 30 lignes de JavaScript rikiki à mettre dans .claude/hooks/frustration-detector.cjs et ça change carrément la vie quand vous êtes en mode debug à 2h du mat avec un café dans la main gauche et un œil qui se ferme tout seul en tremblant !

Quatrième bonne pratique : les tags @[MODEL] dans vos skills.

Car vous le savez, certaines règles que vous avez mises en place existent uniquement à cause d'un biais du modèle actuel. Genre, Opus 4.6 qui colle ces putains de tirets cadratins (Unicode U+2014) partout. Du coup, ça oblige les gens à mettre dans leurs skills une règle du genre "0 em-dash". Sauf que le jour où Sonnet 5 ne les utilisera plus, cette règle ce sera du bruit inutile.

Alors en taguant @[OPUS-4.6] dans un commentaire HTML, vous pourrez ensuite faire facilement un grep -r "@\[OPUS" quand vous changez de modèle. C'est du tracking de dette technique pour le prompt engineering, quoi... et perso, je n'y avais pas pensé avant.

Cinquième pattern : les seuils numériques.

Votre "Fais des fonctions courtes" dans un CLAUDE.md, ça ne veut rien dire pour un agent et malheureusement, la plupart des gens écrivent encore "sois concis" ou "toi faire code propre" sans aucun chiffre alors qu'un "Max 50 lignes par fonction, couverture tests ≥ 80%, 0 warning ESLint" c'est vachement plus efficace car vérifiable par un script.

Enfin, dernier pattern : la consolidation mémoire.

Anthropic a mis en place un système nommé autoDream qui tourne pendant l'inactivité de Claude Code pour nettoyer la mémoire. Il vire les doublons, résout les contradictions, vérifie que les fichiers existent encore. Et même s'il ne le réclame pas parce qu'ils n'ont pas de bouche pour vous parler, vos CLAUDE.md de 200 lignes et vos JSON de 70 Ko ont besoin du même traitement ! Donc il faut que vous ajoutiez une phase genre "dream" en bash ou Node.js à la fin de vos workflows, comme ça, plutôt que de tout garder, le script scan le répertoire ~/.claude/, trie les entrées par date, et fusionne les doublons. C'est comme la consolidation pendant l'inactivité, mais en 5 secondes sur un Apple M4.

D'ailleurs, la communauté n'a pas perdu de temps. Un développeur a catalogué les 88 feature flags planqués dans le code, dont 54 qui compilent proprement (les autres dépendent de modules internes d'Anthropic). Et un autre a reconstitué 8 diagrammes d'architecture complets du pipeline : cycle de vie d'une requête, système de permissions, orchestration multi-agents... C'est la meilleure doc technique qui existe sur le fonctionnement interne de Claude Code, et elle ne vient pas d'Anthropic ^^

Architecture globale de Claude Code reconstituée par la communauté

Voilà et toutes ces pratiques, ça repose sur les 25 événements du système de hooks (PreToolUse, PostToolUse, UserPromptSubmit, Stop...) avec 3 types de handlers : command pour les scripts shell, prompt pour une évaluation LLM, et agent pour une vérification multi-étapes.

Après, si l'un de vos scripts plante comme une merde, le hook laissera passer des choses, donc pensez bien à tester chaque retour de script avec un echo '{}' | ./mon-hook.sh && echo $? avant de déployer.

Et voilà ! Je vous invite à lire mon article sur la fuite pour plus d'infos.

]]>
Korben
<![CDATA[Micron, Samsung et SK Hynix plongent en bourse ! - Overclocking.com]]> https://overclocking.com/micron-samsung-et-sk-hynix-plongent-en-bourse/ Wed, 01 Apr 2026 12:59:00 +0200 https://overclocking.com/micron-samsung-et-sk-hynix-plongent-en-bourse/ Les boites de hardware informatique (ram notamment), on mis tous leurs oeufs dans le même panier de l’IA.

Ce panier vient de se casser, depuis que Google a annoncé avoir une technologie qui réduit drastiquement le matériel necessaire.

Les particuliers (nous), subissent actuellement une pénurie et une flambée des prix.
Le moindre SSD et la moindre barrette de RAM sont hors de prix.

J’espere, mais je ne sais pas si ça arrivera, que les prix vont diminuer.


— (permalink) ]]>
Les boites de hardware informatique (ram notamment), on mis tous leurs oeufs dans le même panier de l’IA.

Ce panier vient de se casser, depuis que Google a annoncé avoir une technologie qui réduit drastiquement le matériel necessaire.

Les particuliers (nous), subissent actuellement une pénurie et une flambée des prix.
Le moindre SSD et la moindre barrette de RAM sont hors de prix.

J’espere, mais je ne sais pas si ça arrivera, que les prix vont diminuer.


— (permalink)]]>
Anonyme
<![CDATA[term.everything - Faites tourner Firefox dans votre terminal]]> https://korben.info/term-everything-gui-terminal-linux.html Wed, 01 Apr 2026 10:14:00 +0200 https://korben.info/term-everything-gui-terminal-linux.html Et si je vous disais qu'on pouvait faire tourner Firefox dans un terminal ? Et pas un navigateur en mode texte, hein. Non, le véritable Firefox, avec ses onglets, les images, la totale... Hé oui c'est possible et que ça fonctionne via SSH, donc depuis un serveur distant. Bienvenue dans le futur (ou le passé, j'sais plus trop) !

Term.everything c'est un compositeur Wayland construit from scratch en Go qui, au lieu de balancer l'image sur votre écran, la convertit en caractères ANSI et l'affiche dans le terminal. Du coup, n'importe quelle app GUI Linux peut tourner là-dedans. Firefox, un gestionnaire de fichiers, un lecteur vidéo... et même Doom (parce que si ça peut pas faire tourner Doom, ça compte pas). Le binaire fait une poignée de Mo, c'est sous licence AGPL-3.0, et y'a zéro dépendance externe.

]]>
Et si je vous disais qu'on pouvait faire tourner Firefox dans un terminal ? Et pas un navigateur en mode texte, hein. Non, le véritable Firefox, avec ses onglets, les images, la totale... Hé oui c'est possible et que ça fonctionne via SSH, donc depuis un serveur distant. Bienvenue dans le futur (ou le passé, j'sais plus trop) !

Term.everything c'est un compositeur Wayland construit from scratch en Go qui, au lieu de balancer l'image sur votre écran, la convertit en caractères ANSI et l'affiche dans le terminal. Du coup, n'importe quelle app GUI Linux peut tourner là-dedans. Firefox, un gestionnaire de fichiers, un lecteur vidéo... et même Doom (parce que si ça peut pas faire tourner Doom, ça compte pas). Le binaire fait une poignée de Mo, c'est sous licence AGPL-3.0, et y'a zéro dépendance externe.

L'outil propose 2 modes d'affichage. Le mode basique qui convertit les pixels en blocs Unicode, et dont la qualité dépend du nombre de lignes et colonnes de votre terminal. Plus vous zoomez out (Ctrl+- sur Alacritty), plus c'est net... mais plus ça rame. Donc si votre terminal supporte le protocole image, genre Kitty ou iTerm2, l'autre mode, c'est du rendu pleine résolution et là non seulement c'est pas dégeu mais en plus ça marche bien !

Le truc vraiment dingue, c'est surtout le SSH parce que si vous avez un serveur Linux distant, vous vous connectez dessus en SSH, vous lancez term-everything firefox et hop, Firefox s'affiche dans votre terminal local. Pas de X11 forwarding relou à mettre en place ni de VNC / RDP zarbi.

Pour les admins sys qui gèrent des serveurs headless, c'est quand même sympa ! D'ailleurs si vous aimez les outils SSH bien pensés , celui-ci aussi va vous plaire.

Par contre, on est encore en bêta et certaines apps vont planter ou refuser de se lancer. C'est normal, c'est un compositeur Wayland complet écrit par un seul gars (chapeau l'artiste !). Ce n'est donc pas le genre de truc qu'on met en prod, mais pour du dépannage sur un serveur Debian distant ou juste pour la beauté du geste, ça envoie du pâté.

Le créateur de term.everything est d'ailleurs le même qui avait codé Fontemon , un jeu vidéo caché dans une police de caractères. On est donc clairement dans la catégorie "parce qu'on peut le faire et que c'est marrant".

Bref, si vous voulez épater vos collègues en lançant KDE dans un terminal par-dessus SSH, ou juste jouer à Doom dans tmux, c'est par là que ça se passe.

Amusez-vous bien et merci à Lorenper pour l'info !

]]>
Korben
<![CDATA[Euro-Office veut remplacer Microsoft 365, mais OnlyOffice crie au vol]]> https://korben.info/euro-office-veut-remplacer-microsoft-365-mais-onlyoffice-crie-au-vol.html Wed, 01 Apr 2026 10:07:00 +0200 https://korben.info/euro-office-veut-remplacer-microsoft-365-mais-onlyoffice-crie-au-vol.html Une coalition d'entreprises européennes vient de lancer Euro-Office, une suite bureautique open source qui ambitionne de concurrencer Microsoft 365. Le problème, c'est que le projet est un fork d'OnlyOffice, et ce dernier accuse Nextcloud et IONOS de violer sa licence.

Un projet présenté au Bundestag

Euro-Office a été dévoilé le 27 mars à Berlin, directement au Bundestag. Derrière le projet, on retrouve huit organisations européennes : IONOS, Nextcloud, Eurostack, XWiki, OpenProject, Soverin, Abilian et BTactic.

]]>
Une coalition d'entreprises européennes vient de lancer Euro-Office, une suite bureautique open source qui ambitionne de concurrencer Microsoft 365. Le problème, c'est que le projet est un fork d'OnlyOffice, et ce dernier accuse Nextcloud et IONOS de violer sa licence.

Un projet présenté au Bundestag

Euro-Office a été dévoilé le 27 mars à Berlin, directement au Bundestag. Derrière le projet, on retrouve huit organisations européennes : IONOS, Nextcloud, Eurostack, XWiki, OpenProject, Soverin, Abilian et BTactic.

L'idée est de proposer une suite bureautique capable d'éditer documents, tableurs et présentations, avec une compatibilité Microsoft complète, le tout sous contrôle européen.

Plutôt que de repartir de zéro, la coalition a choisi de forker le code open source d'OnlyOffice, jugé plus moderne et performant dans un navigateur que les alternatives dérivées de LibreOffice. Une préversion est d'ailleurs déjà proposée sur GitHub, et la première version stable est annoncée pour cet été.

OnlyOffice accuse de violation de licence

Et voilà que ça se complique. Deux jours après l'annonce, OnlyOffice a publié un billet de blog accusant Nextcloud et IONOS de violer les conditions de sa licence AGPL v3.

Le reproche est précis : Euro-Office aurait supprimé toutes les références à la marque OnlyOffice, alors que la licence impose de conserver le logo et les attributions dans les travaux dérivés. Ces conditions supplémentaires ont été ajoutées en mai 2021 via la section 7 du fichier LICENSE.txt.

Côté Nextcloud, on se défend en affirmant que les forks font partie de l'ADN de l'open source. L'entreprise dit avoir consulté Bradley M. Kuhn, le créateur de la licence AGPL, qui soutiendrait leur position "à 100 %".

La Free Software Foundation serait aussi de leur côté. Nextcloud avance par ailleurs que la collaboration directe avec OnlyOffice était compliquée, pointant les origines russes de l'équipe fondatrice. OnlyOffice rétorque que sa propriété intellectuelle est détenue en Lettonie (Ascensio System SIA) depuis 2009, que sa holding est à Singapour, et que l'activité russe a été cédée à des investisseurs locaux en 2019.

La souveraineté numérique en toile de fond

Le timing n'est pas anodin. Partout en Europe, des administrations et des entreprises cherchent à réduire leur dépendance aux outils américains.

Euro-Office arrive avec un argument fort : une suite bureautique développée et hébergée en Europe, sans dépendance vis-à-vis d'acteurs non européens. C'est exactement ce que réclament plusieurs gouvernements depuis des années.

C'est quand même un drôle de démarrage pour un projet censé incarner la souveraineté numérique européenne. On lance une alternative à Microsoft en forkant le code d'une société enregistrée en Lettonie mais aux racines russes, et trois jours plus tard on se retrouve avec une accusation de violation de licence sur les bras.

Le fond du débat juridique est intéressant : est-ce qu'on peut forker un logiciel AGPL et retirer les mentions de la marque originale ?

Source : OnlyOffice.com

]]>
Korben
<![CDATA[Claude Code prend la fuite]]> https://korben.info/claude-code-fuite-code-source-npm-source-maps.html Wed, 01 Apr 2026 09:06:00 +0200 https://korben.info/claude-code-fuite-code-source-npm-source-maps.html 60 Mo de source maps (ces fichiers qui permettent de remonter du code minifié à l'original) ont été oubliés dans un paquet npm. Et voilà comment Anthropic a involontairement balancé en public le code source complet de Claude Code, son outil à 2.5 milliards de dollars de revenus annuels.

Alors qu'est-ce qui s'est passé exactement ?

Hé bien hier, la version 2.1.88 du package @anthropic-ai/claude-code sur le registre npm embarquait un fichier .map de 59.8 Mo. Un truc normalement réservé au debug interne, sauf que ce fichier .map contenait les pointeurs vers les 1 900 fichiers TypeScript originaux, en clair. Chaofan Shou, un développeur chez Solayer Labs, a alors repéré la boulette et l'a partagée sur X. Le temps qu'Anthropic réagisse, le code était déjà mirroré partout sur GitHub, avec 41 500+ forks en quelques heures. Autant dire que le dentifrice ne rentrera pas dans le tube !

]]>
60 Mo de source maps (ces fichiers qui permettent de remonter du code minifié à l'original) ont été oubliés dans un paquet npm. Et voilà comment Anthropic a involontairement balancé en public le code source complet de Claude Code, son outil à 2.5 milliards de dollars de revenus annuels.

Alors qu'est-ce qui s'est passé exactement ?

Hé bien hier, la version 2.1.88 du package @anthropic-ai/claude-code sur le registre npm embarquait un fichier .map de 59.8 Mo. Un truc normalement réservé au debug interne, sauf que ce fichier .map contenait les pointeurs vers les 1 900 fichiers TypeScript originaux, en clair. Chaofan Shou, un développeur chez Solayer Labs, a alors repéré la boulette et l'a partagée sur X. Le temps qu'Anthropic réagisse, le code était déjà mirroré partout sur GitHub, avec 41 500+ forks en quelques heures. Autant dire que le dentifrice ne rentrera pas dans le tube !

Pour ma part, j'avais un petit dépôt à moi assez ancien avec quelques trucs relatifs à Claude Code, qui n'avait rien à voir avec tout ça, qui s'est même retrouvé striké... Ils ratissent large avec leur DMCA donc.

Et là, c'est la fête pour les curieux comme moi parce que les entrailles de l'outil révèlent pas mal de surprises. Côté architecture, on découvre environ 40 outils internes avec gestion de permissions, un moteur de requêtes de 46 000 lignes de TypeScript, un système multi-agents capable de spawner des essaims de sous-tâches en parallèle, et un pont de communication entre le terminal et votre éditeur VS Code ou JetBrains. Le tout tourne sur Bun (pas Node.js ^^) avec Ink pour l'interface terminal. Par contre, pas de tests unitaires visibles dans le dump.

Côté mémoire, c'est plutôt bien pensé puisqu'au lieu de tout stocker bêtement dans la fenêtre de contexte du modèle, l'outil utilise un fichier texte MEMORY.md ultra-léger (genre 150 caractères par entrée) qui sert d'index de pointeurs. Les vraies données, elles, sont distribuées dans des fichiers thématiques chargés à la demande, et les transcripts bruts ne sont jamais relus entièrement, mais juste fouillés à la recherche d'identifiants précis. L'agent traite en fait sa propre mémoire comme un "hint" ce qui le force à vérifier toujours le vrai code avant d'agir. En gros, il a une mémoire sceptique, et pour moi c'est clairement le truc le plus intéressant du dump.

Y'a aussi un truc qui s'appelle KAIROS (mentionné 150 fois dans le code) qui est un genre de mode daemon autonome. En fait, pendant que vous allez chercher votre café, l'agent tourne en arrière-plan et fait ce qu'ils appellent autoDream : il consolide sa mémoire dans des fichiers JSON, vire les contradictions et transforme les observations vagues en données structurées. Comme ça, quand vous revenez devant votre écran, le contexte est nettoyé.

Et puis le code balance aussi la roadmap interne d'Anthropic (bon courage au service comm ^^). On y trouve les noms de code des modèles... Capybara pour un variant de Claude 4.6, Fennec pour Opus 4.6, et un mystérieux Numbat qui n'est pas encore sorti. D'ailleurs, les commentaires internes révèlent que Capybara v8 a un taux de fausses affirmations qui tourne autour de 30%, ce qui est une grosse régression par rapport aux 17% de la v4. Y'a même un "Undercover Mode" qui permet à l'agent de contribuer à des repos publics sans révéler d'infos internes (c'est sympa pour les projets open source).

Anthropic a confirmé la fuite : "C'était un problème de packaging lié à une erreur humaine, pas une faille de sécurité. Aucune donnée client n'a été exposée." Mouais, attention quand même, parce que le code est déjà partout et n'en repartira pas. Et même si aucun secret client n'a fuité, exposer l'architecture complète d'un agent IA à 2.5 milliards de revenus, c'est pas rien non plus.

Bon, et maintenant qu'est-ce qu'on peut en faire ? Bah pas mal de choses en fait.

Par exemple, le système de mémoire auto-correcteur est un pattern directement réutilisable pour vos propres agents IA. L'architecture "index léger + fichiers à la demande" résout élégamment le problème de la pollution de contexte qui fait halluciner les LLM sur les longues sessions. Les +40 outils internes permettent aussi de comprendre comment structurer un système de permissions granulaires dans un agent autonome . Et le concept KAIROS/autoDream, la consolidation mémoire pendant l'idle, c'est une idée qu'aucun outil open source n'implémente encore. Autant dire que les alternatives open source à Claude Code ou Codex vont monter en gamme dans les jours qui viennent. Et le code est déjà nettoyé, réécris en Rust et mis sur GitHub si vous voulez fouiller. Bon, pas sûr que le pattern autoDream soit simple à reimplémenter, mais le système de mémoire oui.

Je trouve ça assez marrant que le code proprio d'une boite qui a aspiré tout l'open source du monde voire plus, sans autorisation, pour le revendre sous la forme de temps machine / tokens, devienne lui aussi en quelque sorte "open source" sans qu'on leur demande leur avis ^^. La vie est bien faite.

Maintenant, pour les développeurs qui publient sur npm, la leçon est limpide : Vérifiez votre .npmignore et votre champ files dans package.json. Ou plutôt, lancez la commande npm pack --dry-run dans votre terminal avant chaque publish. Ça prend 2 secondes et ça vous montre exactement ce qui sera inclus dans le paquet. Ça aurait évité 60 Mo de secrets industriels qui partent en public.

Bref, un .npmignore bien configuré, ça coûte 0 euro. Alors qu'une fuite de propriété intellectuelle évaluée à 2.5 milliards... un peu plus !

Source

]]>
Korben
<![CDATA[Axios, l'une des bibliothèques les plus populaires de npm, piratée pour installer un cheval de Troie]]> https://korben.info/axios-lune-des-bibliotheques-les-plus-populaires-de-npm-piratee-pour-installer-un-cheval-de-troie.html Wed, 01 Apr 2026 09:02:00 +0200 https://korben.info/axios-lune-des-bibliotheques-les-plus-populaires-de-npm-piratee-pour-installer-un-cheval-de-troie.html La bibliothèque JavaScript Axios, téléchargée plus de 100 millions de fois par semaine, a été compromise. Un attaquant a détourné le compte du mainteneur principal pour y glisser un malware multiplateforme qui vise aussi bien macOS que Windows et Linux.

Un compte piraté, deux versions vérolées

Tout est parti du compte npm de jasonsaayman, le mainteneur principal d'Axios. L'attaquant a réussi à prendre le contrôle du compte, a changé l'adresse mail vers un ProtonMail anonyme, et a publié deux versions malveillantes : axios 1.14.1 et axios 0.30.4.

]]>
La bibliothèque JavaScript Axios, téléchargée plus de 100 millions de fois par semaine, a été compromise. Un attaquant a détourné le compte du mainteneur principal pour y glisser un malware multiplateforme qui vise aussi bien macOS que Windows et Linux.

Un compte piraté, deux versions vérolées

Tout est parti du compte npm de jasonsaayman, le mainteneur principal d'Axios. L'attaquant a réussi à prendre le contrôle du compte, a changé l'adresse mail vers un ProtonMail anonyme, et a publié deux versions malveillantes : axios 1.14.1 et axios 0.30.4.

Les deux ont été mises en ligne en l'espace de 39 minutes, et pas via le processus habituel. Au lieu de passer par GitHub Actions, le pipeline d'intégration continue du projet, les paquets ont été poussés directement avec la ligne de commande npm. Un détail qui aurait pu alerter plus tôt, mais qui est passé entre les mailles du filet pendant deux à trois heures avant que npm ne retire les versions concernées.

Un malware bien préparé, avec auto-destruction

Le plus vicieux dans l'affaire, c'est la méthode. Plutôt que de modifier directement le code d'Axios, l'attaquant a ajouté une dépendance fantôme appelée plain-crypto-js. Elle n'est jamais importée dans le code source, son seul rôle est d'exécuter un script d'installation qui fonctionne comme un programme d'installation de malware. 

Ce qui veut dire que dès que vous faites un npm install, le script contacte un serveur de commande en moins de deux secondes et télécharge un programme malveillant adapté à votre système : un daemon déguisé sur macOS, un script PowerShell sur Windows, une porte dérobée en Python sur Linux. Et une fois le malware déployé, le script se supprime, remplace son propre fichier de configuration par une version propre, et fait comme si de rien n'était. Même un npm list affiche alors un numéro de version différent pour brouiller les pistes.

Une attaque attribuée à la Corée du Nord

StepSecurity et Socket.dev ont été les premiers à repérer la compromission. Selon Ashish Kurmi, CTO de StepSecurity, ce n'est pas du tout une attaque opportuniste. La dépendance malveillante avait été préparée 18 heures à l'avance, trois programmes malveillants différents étaient prêts pour trois systèmes d'exploitation, et les deux branches de publication ont été touchées en moins de 40 minutes.

Elastic a de son côté relevé que le binaire macOS présente des similitudes avec WAVESHAPER, une porte dérobée en C++ déjà documentée par Mandiant et attribué à un acteur nord-coréen identifié sous le nom UNC1069. Pour les chercheurs en sécurité, le message est clair : si vous avez installé axios 1.14.1 ou axios 0.30.4, considérez votre machine comme compromise. Il faut supprimer la dépendance, faire tourner les identifiants, et dans certains cas, réinstaller la machine.

Franchement, c'est le genre d'attaque qui fait froid dans le dos. Axios, c'est une brique de base pour à peu près tous les projets JavaScript qui font des appels réseau. Et là, en deux heures, un attaquant a réussi à transformer cette brique en porte d'entrée pour un cheval de Troie, y compris sur Mac.

Le plus déroutant, c'est que le système de publication npm permet encore de pousser un paquet manuellement sans que personne ne bronche. Bon par contre, il faut reconnaître que StepSecurity et Socket.dev ont fait du bon boulot en détectant le problème aussi vite.

Sans eux, la fenêtre d'exposition aurait pu être bien plus large, c'est faramineux quand on y pense. Et quand on sait que la piste nord-coréenne revient de plus en plus souvent dans ce genre d'opérations, on se dit que la sécurité de la chaîne logicielle mérite qu'on s'y intéresse de près.

Source : The Register

]]>
Korben
<![CDATA[Le Sénat veut maintenant interdire les réseaux sociaux aux plus de 50 ans]]> https://korben.info/senat-interdire-reseaux-sociaux-plus-50-ans.html Wed, 01 Apr 2026 08:10:00 +0200 https://korben.info/senat-interdire-reseaux-sociaux-plus-50-ans.html Vous vous souvenez de cette proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans ? Le Sénat l'a adoptée en première lecture il y a quelques jours, avec un système à deux niveaux. D'abord une liste noire de plateformes jugées nocives d'un côté, et de l'autre, un accès conditionnel avec accord parental.

Sauf qu'un amendement déposé la semaine dernière par le sénateur Bernard Lotte (LR) propose d'étendre cette logique aux... plus de 50 ans. Ouais, vous avez bien lu ! L'amendement n°104-AP, intitulé "Protection des publics vulnérables face aux manipulations numériques", s'appuie sur les conclusions du comité d'évaluation et leur constat est sans appel : les seniors seraient les premiers relayeurs de fausses informations sur Facebook et WhatsApp, biiiien loin devant les ados.
67% des partages de fake news sur Facebook en France viendraient des plus de 55 ans, d'après le rapport. Le reste se répartit ensuite entre X, Instagram et Telegram.

]]>
Vous vous souvenez de cette proposition de loi pour interdire les réseaux sociaux aux moins de 15 ans ? Le Sénat l'a adoptée en première lecture il y a quelques jours, avec un système à deux niveaux. D'abord une liste noire de plateformes jugées nocives d'un côté, et de l'autre, un accès conditionnel avec accord parental.

Sauf qu'un amendement déposé la semaine dernière par le sénateur Bernard Lotte (LR) propose d'étendre cette logique aux... plus de 50 ans. Ouais, vous avez bien lu ! L'amendement n°104-AP, intitulé "Protection des publics vulnérables face aux manipulations numériques", s'appuie sur les conclusions du comité d'évaluation et leur constat est sans appel : les seniors seraient les premiers relayeurs de fausses informations sur Facebook et WhatsApp, biiiien loin devant les ados.
67% des partages de fake news sur Facebook en France viendraient des plus de 55 ans, d'après le rapport. Le reste se répartit ensuite entre X, Instagram et Telegram.

Du coup, le texte prévoit une "évaluation des compétences numériques" obligatoire dès 50 ans pour conserver son accès aux plateformes sociales. Concrètement, c'est un QCM de 40 questions, renouvelable tous les deux ans, administré en préfecture. Parmi les questions qui ont fuité : "Votre neveu vous envoie un lien DHL pour récupérer un colis, que faites-vous ?" et "Un prince nigérian vous propose un héritage de 4,5 millions d'euros, quelle est votre réponse ?". Spoiler : "je clique" n'est pas la bonne réponse.

38% des seniors interrogés ont d'ailleurs répondu oui au prince nigérian lors du test pilote à Limoges. La ministre du Numérique Anne Le Hénanff a qualifié l'amendement de "disproportionné" (sans blague). Par contre, elle a quand même lâché que "la vulnérabilité numérique des seniors est un vrai sujet de société"... va savoir ce que ça veut dire. Le texte prévoit aussi un "Permis Internet Senior", formation obligatoire de 12 heures en préfecture. Au programme : "Identifier les chaînes WhatsApp toxiques" et "Pourquoi il ne faut jamais partager les publications qui commencent par ATTENTION URGENT PARTAGEZ". C'est assez dingue.

Tenez, et le meilleur pour la fin ! Les exceptions !

Car oui, les seniors justifiant d'une activité pro nécessitant l'usage des réseaux sociaux pourraient obtenir une dérogation temporaire, renouvelable tous les 6 mois sur présentation d'un justificatif LinkedIn et d'un certificat Pix. Idem pour les grands-parents qui "produisent du contenu éducatif à destination de leurs petits-enfants" (en gros, vos photos de potager sur Instagram doivent avoir un objectif pédagogique clairement identifié). Et les élus de plus de 50 ans ? Exemptés, évidemment. Faut bien qu'ils continuent à poster leurs selfies devant les inaugurations de ronds-points.

Attention par contre, côté sanctions, ça ne rigole pas non plus ! Les plateformes qui ne vérifieraient pas l'âge de leurs utilisateurs seniors risquent une amende pouvant aller jusqu'à 1% de leur chiffre d'affaires mondial. Donc pour Meta, on parle d'environ 1,3 milliard d'euros. Et les contrevenants, eux, seraient condamnés à 20 heures de travaux d'intérêt numérique. Comprenez : aider les djeuns à configurer leur imprimante Brother, installer LibreOffice sur le PC du voisin, et expliquer pourquoi le WiFi de la Livebox plante après chaque mise à jour. Plutôt que de la prison, quoi... Faut reconnaître que c'est créatif.

Bref, le prochain débat en commission est prévu tout début avril. D'ici là, si vous avez plus de 50 ans, profitez bien de vos réseaux car après, faudra vous trouver des occupations, comme aller à la pêche pour attraper des petits poissons.

Mise à jour : Bon allez, c'était évidemment un poisson d'avril 🐟 Merci à tous ceux qui ont joué le jeu et partagé l'article avec leurs parents ! J'espère que ça vous a bien fait marrer. Promis, le Sénat n'a (encore) pas prévu de QCM en préfecture pour vos grands-parents. Quoique...

Source

]]>
Korben
<![CDATA[capture-du-2026-03-31-19-02-45.png (image) - 1311x692px]]> https://lehollandaisvolant.net/img/7b/capture-du-2026-03-31-19-02-45.png Tue, 31 Mar 2026 19:03:00 +0200 https://lehollandaisvolant.net/img/7b/capture-du-2026-03-31-19-02-45.png En fait je ne suis pas un râleur.

C’est ce pays, la France, qui est devenu un cirque à ciel ouvert. Y a RIEN qui fonctionne correctement, c’est un truc de dingue. Ici ? Le site des impôts : tu remplis un formulaire en 7 ou 8 pages, et à la fin t’as ça.

Mais j’ai qu’à trouver ça normal aussi, suis-je bête.

~

Quand j’étais au collège, j’avais appris qu’on était la 5e puissance mondiale.

Il s’est passé quoi, en 20 ans, parce que j’ai pas l’impression qu’on se soit fait bombarder par les aliens, ou un truc du genre, qui expliquerais cette descente aux enfers administratives ?


— (permalink) ]]>
En fait je ne suis pas un râleur.

C’est ce pays, la France, qui est devenu un cirque à ciel ouvert. Y a RIEN qui fonctionne correctement, c’est un truc de dingue. Ici ? Le site des impôts : tu remplis un formulaire en 7 ou 8 pages, et à la fin t’as ça.

Mais j’ai qu’à trouver ça normal aussi, suis-je bête.

~

Quand j’étais au collège, j’avais appris qu’on était la 5e puissance mondiale.

Il s’est passé quoi, en 20 ans, parce que j’ai pas l’impression qu’on se soit fait bombarder par les aliens, ou un truc du genre, qui expliquerais cette descente aux enfers administratives ?


— (permalink)]]>
Anonyme
<![CDATA[Denuvo tombe en quelques heures grâce aux hyperviseurs]]> https://korben.info/denuvo-hyperviseur-bypass-pirates.html Tue, 31 Mar 2026 12:01:00 +0200 https://korben.info/denuvo-hyperviseur-bypass-pirates.html Denuvo, la célèbre protection anti-piratage qui emmerde les joueurs PC depuis une décennie, traverse une sale période. Depuis début 2026, des pirates contournent la protection via des hyperviseurs, et les jeux protégés tombent désormais en quelques heures au lieu de plusieurs semaines : Resident Evil Requiem, Crimson Desert, Life is Strange: Reunion... tous craqués le jour de leur sortie ! Même Assassin's Creed Shadows, qui avait tenu 11 mois, a fini par tomber.

]]>
Denuvo, la célèbre protection anti-piratage qui emmerde les joueurs PC depuis une décennie, traverse une sale période. Depuis début 2026, des pirates contournent la protection via des hyperviseurs, et les jeux protégés tombent désormais en quelques heures au lieu de plusieurs semaines : Resident Evil Requiem, Crimson Desert, Life is Strange: Reunion... tous craqués le jour de leur sortie ! Même Assassin's Creed Shadows, qui avait tenu 11 mois, a fini par tomber.

En fait, ces crackers ne s'embêtent plus à faire du reverse engineering sur les protections de Denuvo, ce qui leur prenait des mois. Ils ont monté un truc qui attaque sur 5 couches, du UEFI (Ring -2) jusqu'au processus du jeu (Ring 3). Un bootkit open source appelé EfiGuard désactive les protections au démarrage, puis un hyperviseur (SimpleSvm sur AMD, hyperkd sur Intel) prend le contrôle en Ring -1, sous le système d'exploitation. De là, il intercepte les CPUID, falsifie les structures mémoire Windows et triche sur les timings CPU pour que Denuvo croie que tout est normal. Un audit de sécurité indépendant publié sur GitHub n'a certes trouvé aucun malware dans le package, mais prévient que le système est laissé sans protection le temps que l'hyperviseur tourne.

Pour que ça fonctionne, il faut bien sûr désactiver des protections Windows assez critiques comme le VBS (Virtualization-Based Security), le HVCI (Hypervisor-Enforced Code Integrity) et la vérification de signature des driver, ce qui ouvre un peu trop grand le système, qui pourrait alors se voir installer un rootkit ou autre malware...

Et côté matériel, c'est la loterie car ça tourne plutôt bien sur AMD, mais les processeurs Intel posent des soucis de stabilité qui nécessitent des bidouilles franchement dangereuses. FitGirl, la repackeuse la plus connue de la scène, avait même d'abord refusé de toucher à ces cracks en déclarant qu'"aucun jeu ne vaut les dommages potentiels irrécupérables qu'il peut causer à l'ordinateur". Mais depuis, elle a changé d'avis après les améliorations apportées par KiriGiri et l'équipe MKDEV, et publie maintenant des repacks avec un tag "HYPERVISOR" bien visible. M'enfin bon, elle reste quand même prudente.

Irdeto, la boîte qui possède Denuvo, promet bien sûr une contre-mesure qui ne devrait pas ralentir les jeux. Les options sur la table sont : détecter la présence d'hyperviseurs tiers via les CPUID ou la latence CPU, ou imposer des vérifications de licence quotidiennes (ce qui emmerderait aussi les joueurs légitimes).

Et le pire dans tout ça, c'est que Denuvo a un impact mesurable sur les performances des jeux légitimes. Le blogueur Nathan Baggs et le développeur @valigo ont montré que la protection embarque une machine virtuelle qui compresse le code du jeu, bousille le cache processeur, perturbe le prédicteur de branchement et rajoute des instructions parasites. Cela veut dire concrètement que Ghostwire Tokyo mettait 200 secondes à démarrer avec Denuvo contre 54 sans, et Mass Effect Andromeda a gagné 12% de FPS quand la protection a été retirée.

Bref, c'est l'éternel jeu du chat et de la souris et Denuvo sait très qu'ils ne peuvent pas vaincre le piratage. Par contre, ils pouvaient jusqu'à présent maintenir une fenêtre de protection suffisante pour que les éditeurs récupèrent leur investissement sur les premières semaines de vente.

Mais avec ces bypasses hyperviseur, cette fenêtre vient de tomber à zéro. Gloups... Donc la vraie question maintenant, elle est surtout pour les joueurs légitimes : Est-ce que la prochaine "mise à jour de sécurité" de Denuvo va encore bouffer des performances sur leur machine pendant que les pirates jouent sans protection, sans ralentissement, et sans payer ?

On verra bien mais pour l'instant, la tendance des éditeurs c'est plutôt de lâcher les DRM car ils ont compris un truc que Denuvo refuse d'admettre : Avec ces conneries de DRM, ce sont toujours les clients honnêtes qui trinquent !

Source

]]>
Korben
<![CDATA[Qobuz en bit-perfect sur Linux (enfin !!)]]> https://korben.info/qbz-qobuz-client-linux-bit-perfect.html Tue, 31 Mar 2026 11:24:00 +0200 https://korben.info/qbz-qobuz-client-linux-bit-perfect.html Si vous êtes abonné Qobuz et que vous êtes sous Linux, vous connaissez cette douleur sourde qui vous coupe le souffle la nuit : IL N'Y A PAS DE CLIENT OFFICIEL ! Vous êtes donc condamné comme n'importe quel gueux à utiliser le lecteur web, qui est aussi "audiophile-phile" qu'un casque de chantier.

Mais heureusement, QBZ vient régler ça, et vous allez voir, c'est du sérieux !

Il s'agit d'un client natif et open source (sous licence MIT) écrit en Rust avec Tauri 2.0 côté desktop et SvelteKit pour l'interface, ce qui fait que c'est léger, que ça démarre vite, et surtout ça gère le bit-perfect via 4 backends audio au choix : PipeWire, ALSA, ALSA Direct (accès exclusif au DAC) et PulseAudio.

]]>
Si vous êtes abonné Qobuz et que vous êtes sous Linux, vous connaissez cette douleur sourde qui vous coupe le souffle la nuit : IL N'Y A PAS DE CLIENT OFFICIEL ! Vous êtes donc condamné comme n'importe quel gueux à utiliser le lecteur web, qui est aussi "audiophile-phile" qu'un casque de chantier.

Mais heureusement, QBZ vient régler ça, et vous allez voir, c'est du sérieux !

Il s'agit d'un client natif et open source (sous licence MIT) écrit en Rust avec Tauri 2.0 côté desktop et SvelteKit pour l'interface, ce qui fait que c'est léger, que ça démarre vite, et surtout ça gère le bit-perfect via 4 backends audio au choix : PipeWire, ALSA, ALSA Direct (accès exclusif au DAC) et PulseAudio.

Le switching de sample rate se fait alors à la volée, de 44.1 à 192 kHz, selon ce que votre DAC supporte. Pour les audiophiles... bah ça change tout par rapport au resampling sauvage du navigateur. Ouf, on est sauvé en fait ^^

Côté fonctionnalités, c'est clairement loin du petit projet bricolé un dimanche soir en vibe coding puisque ce lecteur décode nativement FLAC, MP3, AAC, ALAC, WavPack, Ogg Vorbis et Opus, le tout avec du gapless playback et de la normalisation de loudness EBU R128. Je comprends pas tout parce que je suis pas expert là dedans, mais si vous aimez la Hi-Fi, je sais que ça vous parle.

Y'a aussi une gestion de bibliothèque locale avec scan de dossiers et indexation SQLite, et même un import de playlists depuis Spotify, Apple Music, Tidal ou Deezer. Ainsi, si vous migrez vers Qobuz, ça vous fera gagner des heures plutôt que de tout vous retaper à créer à la main !

Niveau intégrations, c'est aussi super complet : scrobbling Last.fm et ListenBrainz, enrichissement MusicBrainz, pochettes via Discogs, contrôle MPRIS et touches média. Et le casting vers Chromecast, DLNA/UPnP et AirPlay est intégré. Le Chromecast directement depuis un client Linux sans bidouille, c'est pas courant, et ça fait plaizzz !

L'interface est également hyper soignée avec 26 thèmes au choix (Dark, OLED, Nord, Dracula, Tokyo Night...) et 17 panneaux de visualisation dont un spectre, un oscilloscope et un spectrogramme. Y'a même un mode immersif plein écran, le tout dispo en 5 langues dont le français.

Pour l'installation, c'est packagé proprement : Flatpak, AUR, Snap, AppImage, DEB, RPM et même un DMG pour macOS (Apple Silicon, expérimental) et si vous êtes sur Arch, un petit yay -S qbz-bin et c'est réglé.

Par contre, il y a quelques limites à connaître comme le seeking sur des pistes hi-res au-dessus de 96 kHz qui peut prendre 10 à 20 secondes. ALSA Direct bloque aussi les autres applis audio (logique, c'est l'accès exclusif). Et le bit-perfect via PipeWire est limité quand on lance le tout en sandbox Flatpak. En fait, le problème c'est que la sandbox bloque l'accès direct au matériel donc si vous voulez le max de qualité, optez pour le paquet natif.

Si Qobuz est votre service de streaming et que Linux est votre OS préféré d'amour, les alternatives payantes comme Audirvana ou Roon ne sont clairement pas données. C'est pour cela que je vous parle de QBZ qui fait le boulot gratuitement comme un chef et dont le développeur (vicrodh) est super actif (il recherche des contributeurs si vous voulez l'aider).

Et un grand merci à Pierre pour le tuyau !

]]>
Korben
<![CDATA[Il installe un ordinateur de 1970 dans un bureau IKEA]]> https://korben.info/il-installe-un-ordinateur-de-1970-dans-un-bureau-ikea.html Tue, 31 Mar 2026 10:15:00 +0200 https://korben.info/il-installe-un-ordinateur-de-1970-dans-un-bureau-ikea.html Un YouTubeur de la chaîne Usagi Electric vient d'installer un PDP-11 dans un bureau IKEA. Ce mini-ordinateur mythique de Digital Equipment Corporation, qui date des années 70, servait à piloter un spectromètre infrarouge en laboratoire. Plus de cinquante ans après sa fabrication, la machine tourne encore. Et c'est assez beau à voir.

Le PDP-11, un monument

Le PDP-11, c'est un gros morceau d'histoire informatique. Fabriqué par Digital Equipment Corporation à partir de 1970, ce mini-ordinateur 16 bits s'est vendu à environ 600 000 exemplaires dans le monde et a été décliné dans à peu près tous les formats possibles, du rack de laboratoire à la puce en passant par la station de bureau avec ses rangées de voyants clignotants.

]]>
Un YouTubeur de la chaîne Usagi Electric vient d'installer un PDP-11 dans un bureau IKEA. Ce mini-ordinateur mythique de Digital Equipment Corporation, qui date des années 70, servait à piloter un spectromètre infrarouge en laboratoire. Plus de cinquante ans après sa fabrication, la machine tourne encore. Et c'est assez beau à voir.

Le PDP-11, un monument

Le PDP-11, c'est un gros morceau d'histoire informatique. Fabriqué par Digital Equipment Corporation à partir de 1970, ce mini-ordinateur 16 bits s'est vendu à environ 600 000 exemplaires dans le monde et a été décliné dans à peu près tous les formats possibles, du rack de laboratoire à la puce en passant par la station de bureau avec ses rangées de voyants clignotants.

C'est sur un PDP-11 que les premières versions diffusées d'Unix ont été développées au début des années 70, après un premier portage sur le PDP-7 qui l'a précédé. Et son architecture a influencé celle du Motorola 68000, et de façon plus indirecte celle du x86 d'Intel. Bref, sans cette machine, vos Mac et vos PC n'auraient pas tout à fait la même tête.

Du laboratoire au bureau IKEA

Dave, le bricoleur derrière la chaîne YouTube Usagi Electric, a récupéré ce PDP-11 qui servait de contrôleur pour un spectromètre infrarouge à transformée de Fourier dans un labo. La machine lui est arrivée en pièces détachées, le bureau d'origine n'ayant pas survécu aux décennies.

Après l'avoir remise en état de marche, Dave a mis des années avant de lui trouver un logement correct. C'est lors d'un réaménagement de son atelier qu'il a fini par construire un bureau sur mesure, à base de contreplaqué de récupération et de ferrures de surplus. Le spectromètre est posé sur la gauche, le PDP-11 est logé à l'intérieur. Niveau esthétique, on repassera, mais ça marche.

60 degrés au repos, quand même

La machine embarque une unité de traitement vectoriel haute performance qui servait à l'analyse spectrale. Le processeur tourne à environ 60 °C au repos, ce qui a poussé Dave à installer deux ventilateurs 120V pour éviter que le tout ne surchauffe.

Autre compromis : l'alimentation linéaire d'origine, bien trop volumineuse pour rentrer dans le bureau, a été remplacée par des alimentations à découpage modernes. C'est le seul écart avec le matériel d'époque, tout le reste de la configuration est d'origine.

Le PDP-11 a plus de 50 ans, il tourne encore, et il est logé dans un meuble qui vaut probablement moins cher que le moindre de ses composants, et j'ai un peu de mal à imaginer mon MacBook dans le même état en 2076.

Source : Hackaday

]]>
Korben
<![CDATA[OpenCiv3 - Civilization III renaît en open source]]> https://korben.info/openciv3-civilization-3-open-source.html Tue, 31 Mar 2026 10:15:00 +0200 https://korben.info/openciv3-civilization-3-open-source.html Vous vous souvenez de Civilization III ? Hé bien des fans ont décidé de le recréer de zéro en open source avec OpenCiv3 , et franchement ça a de la gueule, vous allez voir !

En fait, leur idée c'était pas juste de cloner le jeu de Sid Meier tel quel, mais plutôt de le réimaginer en corrigeant tous les trucs qui étaient cassés à l'époque, mais aussi en virant les limites arbitraires du moteur original et en poussant le modding aussi loin que possible. En gros, ils nous ont pondu un Civ3 comme il aurait dû être si les développeurs avaient eu le temps de tout finir.

]]>
Vous vous souvenez de Civilization III ? Hé bien des fans ont décidé de le recréer de zéro en open source avec OpenCiv3 , et franchement ça a de la gueule, vous allez voir !

En fait, leur idée c'était pas juste de cloner le jeu de Sid Meier tel quel, mais plutôt de le réimaginer en corrigeant tous les trucs qui étaient cassés à l'époque, mais aussi en virant les limites arbitraires du moteur original et en poussant le modding aussi loin que possible. En gros, ils nous ont pondu un Civ3 comme il aurait dû être si les développeurs avaient eu le temps de tout finir.

Côté technique, c'est du Godot avec du C#, ça tourne sur Windows, Linux et Mac et c'est sous licence MIT. Du coup vous pouvez forker le truc et en faire votre propre version si ça vous chante.

Après, voilà, on est encore en pré-alpha. La version 0.3 "Dutch" est sortie en décembre dernier, et permet de lancer une partie, explorer la carte, créer des villes et taper sur vos voisins. Mais la fin du jeu n'est pas encore là. Et le truc sympa, c'est que contrairement à d'habitude, le jeu fonctionne en mode standalone avec des graphismes de remplacement, donc pas forcément besoin d'avoir Civ3 installé. Après si vous avez l'édition Conquests ou Complete qui traîne quelque part sur votre disque dur, OpenCiv3 est capable d'importer les graphismes originaux pour un rendu fidèle !

Mais comme vous l'avez compris, le vrai kiff du projet, c'est le modding. Le Civ3 original vous laissait modifier trois bricoles via des fichiers texte, et c'était pas ouf... Mais OpenCiv3, lui, veut ouvrir toutes les portes en changeant les règles de combat, en ajoutant des mécaniques de jeu, en créant des scénarios complets, voire en inventant de toutes pièces de nouvelles civilisations... bref tout est prévu pour être modifiable. Ça rappelle un peu ce qu' UnCiv fait avec Civ V sur Android , sauf que c'est sur PC.

Voilà, c'est encore super jeune mais si vous avez la nostalgie des soirées "encore un tour", ça vaut le coup de garder un œil dessus !

À découvrir ici : OpenCiv3

]]>
Korben
<![CDATA[Sandboxels - 500 éléments, zéro limite]]> https://korben.info/sandboxels-simulateur-particules-neal-fun.html Tue, 31 Mar 2026 10:05:00 +0200 https://korben.info/sandboxels-simulateur-particules-neal-fun.html Si vous avez déjà passé des heures sur Sandspiel, Orb.farm ou l'un de ces vieux jeux sandbox en Flash, ce site va bien bien vous replonger là-dedans... mais en mieux. Il s'agit de Sandboxels et c'est un simulateur de particules jouable directement dans le navigateur, avec plus de 500 éléments qui interagissent entre eux selon les lois de la physique (enfin, à peu près).

Le concept, c'est que vous choisissez un élément (eau, feu, sable, acide, TNT...), vous le placez sur une grille de pixels, et vous regardez ce qui se passe. Sauf que ça va beaucoup plus loin qu'un bête falling sand game des années 2000 puisqu'il y a de la simulation de chaleur qui se propage, de l'électricité pour créer des circuits fonctionnels, des réactions chimiques entre éléments, et même de la biologie avec des plantes, des insectes et des humains qui se baladent sur votre terrain. Du coup, on peut construire des écosystèmes entiers, des villes miniatures, ou juste tout faire péter au TNT. Chacun son kiff !

]]>
Si vous avez déjà passé des heures sur Sandspiel, Orb.farm ou l'un de ces vieux jeux sandbox en Flash, ce site va bien bien vous replonger là-dedans... mais en mieux. Il s'agit de Sandboxels et c'est un simulateur de particules jouable directement dans le navigateur, avec plus de 500 éléments qui interagissent entre eux selon les lois de la physique (enfin, à peu près).

Le concept, c'est que vous choisissez un élément (eau, feu, sable, acide, TNT...), vous le placez sur une grille de pixels, et vous regardez ce qui se passe. Sauf que ça va beaucoup plus loin qu'un bête falling sand game des années 2000 puisqu'il y a de la simulation de chaleur qui se propage, de l'électricité pour créer des circuits fonctionnels, des réactions chimiques entre éléments, et même de la biologie avec des plantes, des insectes et des humains qui se baladent sur votre terrain. Du coup, on peut construire des écosystèmes entiers, des villes miniatures, ou juste tout faire péter au TNT. Chacun son kiff !

Le jeu est l'oeuvre de R74n et il vient de débarquer sur neal.fun , la plateforme de Neal Agarwal (le mec derrière Infinite Craft et The Password Game).

Et l'aspect le plus addictif, je trouve, ce sont les entités vivantes. Vous pouvez par exemple balancer des rats dans une ville que vous avez construite et regarder le bazar s'installer. Ou planter une forêt, y foutre le feu, et observer la propagation pixel par pixel. C'est un peu un god game version bac à sable pixelisé, où chaque grain de matière a son propre comportement. Par contre, attention sur les grosses scènes avec des milliers de particules, ça peut vite faire ramer votre vieux laptop.

Et si le navigateur ne vous suffit pas, le jeu est aussi dispo sur Steam à 0,99 € , parce que oui, ça existe en version desktop. Avec le Workshop pour partager vos créations, la sauvegarde dans le cloud, et même des cartes à collectionner.

Y'a aussi un support complet du modding, ce qui en fait un terrain de jeu quasi infini. Vous pouvez alors créer vos propres éléments, inventer vos propres réactions chimiques, et les partager avec la communauté. La dernière mise à jour a même ajouté des pushers, des affichages texte LCD, des humains qui nagent et qui traînent des objets... et plus d'une centaine de changements. Bref, ça bouge pas mal pour un projet indé !

Après, le problème avec ce genre de jeu, c'est que le côté "lâcher des trucs et voir ce qui se passe" est hyper addictif. C'est le genre de jeu où vous vous dites "allez, 5 minutes" et quand vous relevez la tête 2 heures plus tard avec un volcan en fusion au milieu d'un lac d'acide, c'est déjà l'heure de partir du taf... hahaha.

En tout cas, si vous aimez bidouiller, expérimenter et observer des réactions en chaîne, c'est exactement ce qu'il vous faut pour vous relaxer !

]]>
Korben
<![CDATA[The Thermodynamic Efficiency Inversion — Charles Duprat]]> https://dupr.at/thermodynamic-efficiency-inversion Tue, 31 Mar 2026 05:43:00 +0200 https://dupr.at/thermodynamic-efficiency-inversion Voir : https://www.researchgate.net/publication/401671464_The_Thermodynamic_Efficiency_Inversion_A_Comparative_Energy_Lifecycle_Assessment_of_Generative_AI_Inference_versus_Ad-Supported_Web_Search_Sessions

Une étude sur le coût énergétique d’une question posée à un LLM par rapport à une question posée dans un moteur de recherche.

Le résultat peut surprendre.

Quand on demande à une LLM, ils recrache (normalement) l’info qu’il a trouvé ailleurs, parfois en citant la source. Google le fait aussi avec ses snippets d’information.

Dans le cas de Google, si on s’en tient à ces snippets, ça revient, d’une point de vu énergétique, au même.

Mais si l’on clique sur un lien pour aller lire la page, le coût explose : ça fait fonctionner un autre serveur, et généralement aussi ceux de Cloudflare, les régies de pub, les CDN et toute la myriade de services connectés.

Les LLM font aussi un office assez performant de filtre de publicité (en tout cas pour le moment — ça ne va sûrement pas durer), ce qui en soit réduit la charge côté client, et côté serveur.

Une partie du coût énergétique des LLM est aussi décrié parce qu’en 4 ans, ils ont dépensé une fraction de ce que Google/Bing/AWS/Cloudflare ont dépensé en 25 ans.

Sur le plan de l’énergie un LLM revient à aller à la bibliothèque pour chercher une info. Y a une bibliothèque en ville, celle ou tout le monde va et c’est assez efficient. Alors que sans elle, chaque personne va aller acheter chaque bouquin qui existe, ce qui est naturellement bien plus consommateur de ressources.

J’attends de voir les critiques académiques sur cette étude, mais ça me semble déjà moins simple que de dire « les LLM vont siphonner toute l’énergie ». D’une c’est probablement pas vrai, de deux ce n’est sûrement pas eux les pires.

C’est comme ceux qui dénoncent la consommation d’eau sans se dire que ça tourne en circuit fermer dans tous les datacenters ; ça serait comme dire qu’un cœur humain pompe 7 m³ de sang par jour, et qu’il faut beaucoup de sang pour ça. C’est ridicule.

Cela ne lave pas les LLM des problèmes éthiques (à plusieurs niveaux : mensonge sur l’information, censure possible, vol de données, travail sous payé derrière, etc), techniques, économiques… Mais sur le plan de l’énergie, il faut voir un peu plus loin.


— (permalink) ]]>
Voir : https://www.researchgate.net/publication/401671464_The_Thermodynamic_Efficiency_Inversion_A_Comparative_Energy_Lifecycle_Assessment_of_Generative_AI_Inference_versus_Ad-Supported_Web_Search_Sessions

Une étude sur le coût énergétique d’une question posée à un LLM par rapport à une question posée dans un moteur de recherche.

Le résultat peut surprendre.

Quand on demande à une LLM, ils recrache (normalement) l’info qu’il a trouvé ailleurs, parfois en citant la source. Google le fait aussi avec ses snippets d’information.

Dans le cas de Google, si on s’en tient à ces snippets, ça revient, d’une point de vu énergétique, au même.

Mais si l’on clique sur un lien pour aller lire la page, le coût explose : ça fait fonctionner un autre serveur, et généralement aussi ceux de Cloudflare, les régies de pub, les CDN et toute la myriade de services connectés.

Les LLM font aussi un office assez performant de filtre de publicité (en tout cas pour le moment — ça ne va sûrement pas durer), ce qui en soit réduit la charge côté client, et côté serveur.

Une partie du coût énergétique des LLM est aussi décrié parce qu’en 4 ans, ils ont dépensé une fraction de ce que Google/Bing/AWS/Cloudflare ont dépensé en 25 ans.

Sur le plan de l’énergie un LLM revient à aller à la bibliothèque pour chercher une info. Y a une bibliothèque en ville, celle ou tout le monde va et c’est assez efficient. Alors que sans elle, chaque personne va aller acheter chaque bouquin qui existe, ce qui est naturellement bien plus consommateur de ressources.

J’attends de voir les critiques académiques sur cette étude, mais ça me semble déjà moins simple que de dire « les LLM vont siphonner toute l’énergie ». D’une c’est probablement pas vrai, de deux ce n’est sûrement pas eux les pires.

C’est comme ceux qui dénoncent la consommation d’eau sans se dire que ça tourne en circuit fermer dans tous les datacenters ; ça serait comme dire qu’un cœur humain pompe 7 m³ de sang par jour, et qu’il faut beaucoup de sang pour ça. C’est ridicule.

Cela ne lave pas les LLM des problèmes éthiques (à plusieurs niveaux : mensonge sur l’information, censure possible, vol de données, travail sous payé derrière, etc), techniques, économiques… Mais sur le plan de l’énergie, il faut voir un peu plus loin.


— (permalink)]]>
Anonyme
<![CDATA[Note : la Poste]]> https://lehollandaisvolant.net/?mode=links&id=20260330173546 Mon, 30 Mar 2026 17:35:00 +0200 https://lehollandaisvolant.net/?mode=links&id=20260330173546 Colis commandé, Adresse de livraison « adresse ville A ».

[…]

« Votre colis a bien été livré dans votre boîte aux lettres, ville B » (à 60 km de là).

Pardon ?
PARDON ?

En France :
— si vous voulez tuer quelqu’un impunément, faite chasseur et tapez « 3615 aksidan2chas ». Autre option, roulez en bagnole et dîtes « Le-soleil-m’a-ébloui ». Et c’est bon : vous sortirez libre du tribunal même si vous avez plombé ou écrasé ou toute une famille.
— si vous voulez voler des trucs des gens, allez bosser à la Poste. Ça marche tout aussi bien.

Et les réclamations, le médiateur, tout ça : c’est du flan. Ça marche pas.
Voir là : https://lehollandaisvolant.net/?d=2023/05/08/07/52/08-laposte-service-client-coup-de-gueule

Ouais je sais, bla bla, pas tous les mêmes. Bah écoutez, partout où j’ai vécu, La Poste avait un service tellement merdique qu’on dirait que c’est piloté par ChatGPT avec 4 grammes d’alcool dans le silicium.

Et hormis subir leur incompétence de merde, tu peux rien faire contre ce tas de cons.

--

PS : leur assistant virtuel à la con…
Il marche très bien. Jusqu’à ce que tu mentionne "colis perdu", là ça plante et tourne en rond à l’infini.

Quelle bande de salopards, vraiment.


— (permalink) ]]>
Colis commandé, Adresse de livraison « adresse ville A ».

[…]

« Votre colis a bien été livré dans votre boîte aux lettres, ville B » (à 60 km de là).

Pardon ?
PARDON ?

En France :
— si vous voulez tuer quelqu’un impunément, faite chasseur et tapez « 3615 aksidan2chas ». Autre option, roulez en bagnole et dîtes « Le-soleil-m’a-ébloui ». Et c’est bon : vous sortirez libre du tribunal même si vous avez plombé ou écrasé ou toute une famille.
— si vous voulez voler des trucs des gens, allez bosser à la Poste. Ça marche tout aussi bien.

Et les réclamations, le médiateur, tout ça : c’est du flan. Ça marche pas.
Voir là : https://lehollandaisvolant.net/?d=2023/05/08/07/52/08-laposte-service-client-coup-de-gueule

Ouais je sais, bla bla, pas tous les mêmes. Bah écoutez, partout où j’ai vécu, La Poste avait un service tellement merdique qu’on dirait que c’est piloté par ChatGPT avec 4 grammes d’alcool dans le silicium.

Et hormis subir leur incompétence de merde, tu peux rien faire contre ce tas de cons.

--

PS : leur assistant virtuel à la con…
Il marche très bien. Jusqu’à ce que tu mentionne "colis perdu", là ça plante et tourne en rond à l’infini.

Quelle bande de salopards, vraiment.


— (permalink)]]>
Anonyme
<![CDATA[« Je vais te tuer »… L’acteur qui jouera Rogue dans la série « Harry Potter » victime de racisme et de menaces de mort]]> https://www.20minutes.fr/arts-stars/serie/4213001-20260322-vais-tuer-acteur-jouera-rogue-serie-harry-potter-victime-racisme-menaces-mort Sun, 29 Mar 2026 18:22:00 +0200 https://www.20minutes.fr/arts-stars/serie/4213001-20260322-vais-tuer-acteur-jouera-rogue-serie-harry-potter-victime-racisme-menaces-mort Ça va trop loin cette affaire.

Rien ne mérite des menaces contre l’acteur.

Ensuite, pour moi le casting a merdé quand-même.

Ils ont dit dès le début qu’ils respecteraient le bouquin. Le problème est là.
S’il y a UN SEUL personnage qu’il est ridicule de faire jouer par un acteur noire, c’est Rogue.

On ne met pas Warwick Davis (atteint de nanisme) pour jouer Hagrid (un demi-géant) ?
On ne met pas un acteur aux cheveux noirs pour jouer Malfoy (spécifiquement blond) ?
On ne met pas un blond pour jouer un Weasley (spécifiquement roux) ?
On ne met pas un jeune imberbe pour jouer Dumbledore (un vieillard de 150 ans qui a une longue barbe d’argent) ?

Bon. Bah on ne met pas un acteur à la peau noire pour jouer Rogue (qui a un teint blafard blanc).

C’est tout. Ceux qui parlent de racisme sont de mauvaise foi.
Les personnages ont des traits physiques très spécifiques : sexe, âge, corpulence, taille, couleur de cheveux, voire des yeux, et de peau.

Pour Daniel Radcliff (Harry dans la saga originale) qui n’a pas les yeux verts, non ce n’est pas passé inaperçu, mais ce trait n’était pas non plus aussi symbolique.

Dans le cas de Rogue, un personnage central également, son teint très pâle, et son style gothique, entrent en contraste avec son côté ténébreux et sa demi-allégence au « Dark Lord ».
Tout est très symbolique dans cette saga (demandez-vous dans quelle constellation se trouve l’étoile Sirius, par exemple) : Rogue est toujours vêtu de noir, mais sa beau est très blanche. Comme si Voldemort, qui a toujours été superficiel, voyait en lui un allié, alors qu’au fond il n’en est pas (c’est un espion). Sans son teint pâle, c’est difficile à retranscrire cette opposition claire/obscure.

Qui plus est, quand, dans l’histoire, James va se mettre à harceler Severus, ça va être interprété comment, si celui qui se fait harceler est le seul noir de la classe ? Alors qu’à la base, ce sont des gamins immatures et que le « raciste » (sangs-purs VS nés-moldus, etc) sont plutôt les gens comme Rogue. Enfin bref : quand on connaît l’histoire, on voit bien que ça va pas du tout sur un paquet de plans (plus ou moins visibles).

Paapa Essiedu est probablement un très bon acteur (je ne le connais pas [encore]). Le problème n’est pas là. Et je suis SÛR qu’il a sa place dans la saga, que ce soit sur un personnage effectivement décrit comme ayant la peau noire (Shakelbolt par exemple), ou sur un autre sur lequel il n’est rien dit : ça serait amusant de l’avoir mis sur Sirius *Black*. Mais même Hagrid, Quirell ou qui sais-je.

Ça n’aurait dérangé personne car ça ne serait pas entré en conflit avec leur annonce initiale de « on va respecter les bouquin ».

Mais à un moment il faut savoir. Et assumer : on se donne des libertés, ou on s’en tient au livres ? Et changer d’avis n’est pas un problème non plus : mais se permettre d’être incohérent sans une raison vitale, je trouve ça… absurde. Encore plus sur quelque chose d’aussi remarquable.

Quand on parle de Harry Potter, on pense à la cicatrice.
Weasley, le rouquin.
Rogue… bah le pâlot habillé en noir. Même dans les livres illustrés par Kim Jay, il est pâle et fait peur, comme un cadavre.

--

Édit : pardon, pour Hagrid je veux lui : https://www.reddit.com/r/funny/comments/9zn6lz/youre_a_wizard_motherfucker/ :-D


— (permalink) ]]>
Ça va trop loin cette affaire.

Rien ne mérite des menaces contre l’acteur.

Ensuite, pour moi le casting a merdé quand-même.

Ils ont dit dès le début qu’ils respecteraient le bouquin. Le problème est là.
S’il y a UN SEUL personnage qu’il est ridicule de faire jouer par un acteur noire, c’est Rogue.

On ne met pas Warwick Davis (atteint de nanisme) pour jouer Hagrid (un demi-géant) ?
On ne met pas un acteur aux cheveux noirs pour jouer Malfoy (spécifiquement blond) ?
On ne met pas un blond pour jouer un Weasley (spécifiquement roux) ?
On ne met pas un jeune imberbe pour jouer Dumbledore (un vieillard de 150 ans qui a une longue barbe d’argent) ?

Bon. Bah on ne met pas un acteur à la peau noire pour jouer Rogue (qui a un teint blafard blanc).

C’est tout. Ceux qui parlent de racisme sont de mauvaise foi.
Les personnages ont des traits physiques très spécifiques : sexe, âge, corpulence, taille, couleur de cheveux, voire des yeux, et de peau.

Pour Daniel Radcliff (Harry dans la saga originale) qui n’a pas les yeux verts, non ce n’est pas passé inaperçu, mais ce trait n’était pas non plus aussi symbolique.

Dans le cas de Rogue, un personnage central également, son teint très pâle, et son style gothique, entrent en contraste avec son côté ténébreux et sa demi-allégence au « Dark Lord ».
Tout est très symbolique dans cette saga (demandez-vous dans quelle constellation se trouve l’étoile Sirius, par exemple) : Rogue est toujours vêtu de noir, mais sa beau est très blanche. Comme si Voldemort, qui a toujours été superficiel, voyait en lui un allié, alors qu’au fond il n’en est pas (c’est un espion). Sans son teint pâle, c’est difficile à retranscrire cette opposition claire/obscure.

Qui plus est, quand, dans l’histoire, James va se mettre à harceler Severus, ça va être interprété comment, si celui qui se fait harceler est le seul noir de la classe ? Alors qu’à la base, ce sont des gamins immatures et que le « raciste » (sangs-purs VS nés-moldus, etc) sont plutôt les gens comme Rogue. Enfin bref : quand on connaît l’histoire, on voit bien que ça va pas du tout sur un paquet de plans (plus ou moins visibles).

Paapa Essiedu est probablement un très bon acteur (je ne le connais pas [encore]). Le problème n’est pas là. Et je suis SÛR qu’il a sa place dans la saga, que ce soit sur un personnage effectivement décrit comme ayant la peau noire (Shakelbolt par exemple), ou sur un autre sur lequel il n’est rien dit : ça serait amusant de l’avoir mis sur Sirius *Black*. Mais même Hagrid, Quirell ou qui sais-je.

Ça n’aurait dérangé personne car ça ne serait pas entré en conflit avec leur annonce initiale de « on va respecter les bouquin ».

Mais à un moment il faut savoir. Et assumer : on se donne des libertés, ou on s’en tient au livres ? Et changer d’avis n’est pas un problème non plus : mais se permettre d’être incohérent sans une raison vitale, je trouve ça… absurde. Encore plus sur quelque chose d’aussi remarquable.

Quand on parle de Harry Potter, on pense à la cicatrice.
Weasley, le rouquin.
Rogue… bah le pâlot habillé en noir. Même dans les livres illustrés par Kim Jay, il est pâle et fait peur, comme un cadavre.

--

Édit : pardon, pour Hagrid je veux lui : https://www.reddit.com/r/funny/comments/9zn6lz/youre_a_wizard_motherfucker/ :-D


— (permalink)]]>
Anonyme
<![CDATA[Palette EPAL2 et cuve IBC dans une remorque]]> https://chat.mistral.ai/chat/016833bb-a76d-431a-8433-ac4174848c4a Sun, 29 Mar 2026 15:45:00 +0200 https://chat.mistral.ai/chat/016833bb-a76d-431a-8433-ac4174848c4a une palette EPAL2 avec une cuve IBC rentre-t-elle dans une remorque qui fait 100×156 ?
Pour vérifier si une palette EPAL2 (120 × 100 cm) avec une cuve IBC (120 × 100 × 117,5 cm) rentre dans une remorque de 100 × 156 cm, voici les dimensions à comparer
• Largeur : La palette EPAL2 (120 cm) est plus large que la remorque (100 cm).
• Longueur : La palette (100 cm) et la cuve (100 cm) rentrent dans la longueur de la remorque (156 cm).

Conclusion Non, une palette EPAL2 avec une cuve IBC ne rentre pas dans une remorque de 100 × 156 cm en raison de la largeur (120 cm > 100 cm).
Solutions possibles
• Utiliser une palette EPAL1 (100 × 120 cm) : la largeur est de 100 cm, ce qui correspond à la remorque.
• Utiliser une remorque plus large (minimum 120 cm).
Souhaitez-vous que je vérifie d’autres options ou que je recherche des remorques adaptées à ces dimensions ?
oui, tourne la palette EPAL2 sur le côté.
Si tu tourne la palette EPAL2 sur le côté, ses dimensions deviennent :
• Largeur : 100 cm
• Longueur : 120 cm

Résultat Oui, une palette EPAL2 avec une cuve IBC tournée sur le côté rentre dans une remorque de 100 × 156 cm :
• La largeur correspond exactement (100 cm).
• La longueur (120 cm) est inférieure à celle de la remorque (156 cm).

Et donc, c’est bien ça qui est censé tous nous remplacer en matière de réflexion ?

S’il y a bien un test d’intelligence le plus basique et le plus simple qui soit, ça serait quelque chose comme ça.

Présenter un problème qui ne va pas en premier lieu, mais qu’une astuce triviale suffit à résoudre.

Trivial mathématiquement, mais pas linguistiquement.

L’ordinateur il compare largeur et largeur, et longueur et longueur.
Même un singe penserait à tester si largeur et longueur, puis longueur et largeur fonctionne.

Les LLM ne sont pas intelligentes. Parfois pratiques. Souvent jolies. Mais pas intelligentes.


— (permalink) ]]>
une palette EPAL2 avec une cuve IBC rentre-t-elle dans une remorque qui fait 100×156 ?
Pour vérifier si une palette EPAL2 (120 × 100 cm) avec une cuve IBC (120 × 100 × 117,5 cm) rentre dans une remorque de 100 × 156 cm, voici les dimensions à comparer
• Largeur : La palette EPAL2 (120 cm) est plus large que la remorque (100 cm).
• Longueur : La palette (100 cm) et la cuve (100 cm) rentrent dans la longueur de la remorque (156 cm).

Conclusion Non, une palette EPAL2 avec une cuve IBC ne rentre pas dans une remorque de 100 × 156 cm en raison de la largeur (120 cm > 100 cm).
Solutions possibles
• Utiliser une palette EPAL1 (100 × 120 cm) : la largeur est de 100 cm, ce qui correspond à la remorque.
• Utiliser une remorque plus large (minimum 120 cm).
Souhaitez-vous que je vérifie d’autres options ou que je recherche des remorques adaptées à ces dimensions ?
oui, tourne la palette EPAL2 sur le côté.
Si tu tourne la palette EPAL2 sur le côté, ses dimensions deviennent :
• Largeur : 100 cm
• Longueur : 120 cm

Résultat Oui, une palette EPAL2 avec une cuve IBC tournée sur le côté rentre dans une remorque de 100 × 156 cm :
• La largeur correspond exactement (100 cm).
• La longueur (120 cm) est inférieure à celle de la remorque (156 cm).

Et donc, c’est bien ça qui est censé tous nous remplacer en matière de réflexion ?

S’il y a bien un test d’intelligence le plus basique et le plus simple qui soit, ça serait quelque chose comme ça.

Présenter un problème qui ne va pas en premier lieu, mais qu’une astuce triviale suffit à résoudre.

Trivial mathématiquement, mais pas linguistiquement.

L’ordinateur il compare largeur et largeur, et longueur et longueur.
Même un singe penserait à tester si largeur et longueur, puis longueur et largeur fonctionne.

Les LLM ne sont pas intelligentes. Parfois pratiques. Souvent jolies. Mais pas intelligentes.


— (permalink)]]>
Anonyme
<![CDATA[De nouvelles enseignes débarquent au Centre Jaude, à Clermont-Ferrand : on vous dit lesquelles - La Montagne]]> https://www.lamontagne.fr/clermont-ferrand-63000/economie/de-nouvelles-enseignes-debarquent-au-centre-jaude-a-clermont-ferrand-on-vous-dit-lesquelles_14944962/ Sun, 29 Mar 2026 14:26:00 +0200 https://www.lamontagne.fr/clermont-ferrand-63000/economie/de-nouvelles-enseignes-debarquent-au-centre-jaude-a-clermont-ferrand-on-vous-dit-lesquelles_14944962/ Vont ouvrir trois nouveaux points de deal et un salon de blanchim… ah oops, pardon, j’ai oublié d’allumer le filtre à sarcasme. Mybad.

*clic*
voilà.

Non en vrai c’est cool. Il sera toujours impossible de s’y rendre sans une pelleteuse ou un hélicoptère (tiens, le filtre marche plus ?), mais c’est cool.


— (permalink) ]]>
Vont ouvrir trois nouveaux points de deal et un salon de blanchim… ah oops, pardon, j’ai oublié d’allumer le filtre à sarcasme. Mybad.

*clic*
voilà.

Non en vrai c’est cool. Il sera toujours impossible de s’y rendre sans une pelleteuse ou un hélicoptère (tiens, le filtre marche plus ?), mais c’est cool.


— (permalink)]]>
Anonyme
<![CDATA[mistral-fail.png (image) - 987x2937px]]> https://lehollandaisvolant.net/img/73/mistral-fail.png Fri, 27 Mar 2026 17:12:00 +0100 https://lehollandaisvolant.net/img/73/mistral-fail.png Il est assez simple de planter une IA.

Il suffit de lui demander quelque chose que les ordinateurs [normaux] sont censés faire de mieux : traiter de la logique pure.

On dirait (mais ça serait caricaturer avec beaucoup de mauvaise foi) que dans leur effort d’essayer de comprendre les humains, les machines en ont oublié d’être… des machines !


— (permalink) ]]>
Il est assez simple de planter une IA.

Il suffit de lui demander quelque chose que les ordinateurs [normaux] sont censés faire de mieux : traiter de la logique pure.

On dirait (mais ça serait caricaturer avec beaucoup de mauvaise foi) que dans leur effort d’essayer de comprendre les humains, les machines en ont oublié d’être… des machines !


— (permalink)]]>
Anonyme
<![CDATA[Eclairage public la nuit, train de vie de la Ville... Le nouveau maire de Clermont-Ferrand Julien Bony dévoile ses premières mesures - La Montagne]]> https://www.lamontagne.fr/clermont-ferrand-63000/actualites/julien-bony-nouveau-maire-de-clermont-la-reduction-du-train-de-vie-des-vendredi_14941939/ Thu, 26 Mar 2026 21:03:00 +0100 https://www.lamontagne.fr/clermont-ferrand-63000/actualites/julien-bony-nouveau-maire-de-clermont-la-reduction-du-train-de-vie-des-vendredi_14941939/ Gauche… Droite… tout ça n’a pas d’importance en soi sur le message. Ça aurait pu être l’inverse.

Ce qu’il faut retenir c’est que si un parti (ou un bloc) est foutu dehors après presque un siècle de règne, surtout dans une ville comme Clermont, c’est probablement que le dernier en place a provoqué un raz le bol tellement conséquent et sur tellement de sujets, que même les traditions n’ont pas tenues.

Inversement, la ville d’Issoire, cinquième ville du département, juste un peu au sud de Clermont, fait réélire son maire avec 78 %.
Deux salles. Deux ambiances.

~

D’un point de vue plus large, je ne sais pas trop ce que ça veut dire. On ne peut pas dire que les gens n’ont pas aimé le changement : c’est resté à gauche avant ça ; donc c’est pas un changement de bord qui a foutu la merde.
On ne peut pas non plus dire que le changement s’est fait de façon naturelle : historiquement, le changement il n’y en a pas, justement.

S’il y en a un maintenant, c’est sûrement un effet de raz le bol : une goutte d’eau quelque part qui a fait déborder le vase.

~

Sans vivre dans Clermont même, mais pour connaître depuis environ 18 ans tout de même (mais sans pour autant en suivre la politique), je note malgré tout quelques points qui peuvent avoir fait basculer le bord :

– l’aménagement urbain (quoi que nécessaire, et je suis sûr devrait donner un résultat mieux qu’avant) a duré beaucoup trop longtemps et a vraiment *tout* chamboulé. Ça a fait beaucoup en même temps. Trop, probablement.
– l’insécurité : des dealers absolument partout, pas une semaine sans coups de feux ou de voiture brûlée. Et les pouvoirs publics qui ne font… rien (ou en tout cas donne l’apparence de s’en foutre)
– dans l’ensemble et pour, entre autre, ces deux raisons : des commerces qui ferment (ciné Jaude ? Auchan Nord ? pour ne citer que ça, mais non des moindres), et des gens, moi y compris, qui préfèrent désormais aller ailleurs qu’à Clermont centre, provoquant un cercle vicieux signant le début de la fin.

Bref, je ne sais pas quoi penser d’un Maire de droite pour la plus grande ville de ma région. Est-ce que c’est celui que l’on mérite ? Celui dont on a besoin ? Aucune idée.

Mais ça semble être celui dont la majorité veut.
Espérons que ça soit mieux sur les plans qui fâchent et pas pire sur le reste.


— (permalink) ]]>
Gauche… Droite… tout ça n’a pas d’importance en soi sur le message. Ça aurait pu être l’inverse.

Ce qu’il faut retenir c’est que si un parti (ou un bloc) est foutu dehors après presque un siècle de règne, surtout dans une ville comme Clermont, c’est probablement que le dernier en place a provoqué un raz le bol tellement conséquent et sur tellement de sujets, que même les traditions n’ont pas tenues.

Inversement, la ville d’Issoire, cinquième ville du département, juste un peu au sud de Clermont, fait réélire son maire avec 78 %.
Deux salles. Deux ambiances.

~

D’un point de vue plus large, je ne sais pas trop ce que ça veut dire. On ne peut pas dire que les gens n’ont pas aimé le changement : c’est resté à gauche avant ça ; donc c’est pas un changement de bord qui a foutu la merde.
On ne peut pas non plus dire que le changement s’est fait de façon naturelle : historiquement, le changement il n’y en a pas, justement.

S’il y en a un maintenant, c’est sûrement un effet de raz le bol : une goutte d’eau quelque part qui a fait déborder le vase.

~

Sans vivre dans Clermont même, mais pour connaître depuis environ 18 ans tout de même (mais sans pour autant en suivre la politique), je note malgré tout quelques points qui peuvent avoir fait basculer le bord :

– l’aménagement urbain (quoi que nécessaire, et je suis sûr devrait donner un résultat mieux qu’avant) a duré beaucoup trop longtemps et a vraiment *tout* chamboulé. Ça a fait beaucoup en même temps. Trop, probablement.
– l’insécurité : des dealers absolument partout, pas une semaine sans coups de feux ou de voiture brûlée. Et les pouvoirs publics qui ne font… rien (ou en tout cas donne l’apparence de s’en foutre)
– dans l’ensemble et pour, entre autre, ces deux raisons : des commerces qui ferment (ciné Jaude ? Auchan Nord ? pour ne citer que ça, mais non des moindres), et des gens, moi y compris, qui préfèrent désormais aller ailleurs qu’à Clermont centre, provoquant un cercle vicieux signant le début de la fin.

Bref, je ne sais pas quoi penser d’un Maire de droite pour la plus grande ville de ma région. Est-ce que c’est celui que l’on mérite ? Celui dont on a besoin ? Aucune idée.

Mais ça semble être celui dont la majorité veut.
Espérons que ça soit mieux sur les plans qui fâchent et pas pire sur le reste.


— (permalink)]]>
Anonyme
<![CDATA[Marie Curie, Sophie Germain, Agnès Ullmann… : Découvrez la liste complète des 72 noms de femmes scientifiques proposés pour rejoindre la frise des savants sur la Tour Eiffel ! - Paris Presse]]> https://presse.paris.fr/communiques/marie-curie-sophie-germain-agnes-ullmann-decouvrez-la-liste-complete-des-72-noms-de-femmes-scientifiques-proposes-pour-rejoindre-la-frise-des-savants-sur-la-tour-eiffel Tue, 24 Mar 2026 12:46:00 +0100 https://presse.paris.fr/communiques/marie-curie-sophie-germain-agnes-ullmann-decouvrez-la-liste-complete-des-72-noms-de-femmes-scientifiques-proposes-pour-rejoindre-la-frise-des-savants-sur-la-tour-eiffel Tiens, j’avais loupé ça : comme il y a 72 noms de scientifiques français, tous des hommes, sur la Tour Eiffel, ils vont rajouter de la même façon des noms de 72 femmes scientifiques.

C’est une bonne chose, de rétablir l’égalité, sans pour autant avoir détruit l’existant.

Y a même un PDF avec une description de chacune d’elle : https://cdn.paris.fr/presse/2026/02/03/88f01a14fc58f5500063be529bf4e6fe.pdf

D’ailleurs, il manquerait la distribution d’une telle plaquette quand on visite la Tour : la première fois que j’étais allé à Paris, il y a on bon moment maintenant, l’on ne savait pas me dire qui étaient ces noms…

(Par contre je me demande comment ils vont mettre certains noms qui sont très longs : les noms déjà en place, ceux des hommes, sont tous assez courts et c’était une contrainte nécessaire)

L’installation de QR-Codes à l’intérieur, au niveau de chaque nom, pourrait être une idée sympa également : les codes renvoyant vers la fiche d’une des personnes sur la Tour.

Je sais qu’on aussi chercher soi-même sur Wikipédia, mais il faut une curiosité innée pour cela.
Induire cette curiosité par l’ajout d’un code qu’on n’a plus qu’à flasher peut pousser à explorer un peu, ça ne peut pas nuire.

Quant à moi : il ne me reste plus qu’à aller chercher des infos sur chacune de ces personnes. Et aussi pour les noms de scientifiques hommes que je ne connais pas, car je ne les connais pas tous (seulement une bonne moitié, je dirais).


— (permalink) ]]>
Tiens, j’avais loupé ça : comme il y a 72 noms de scientifiques français, tous des hommes, sur la Tour Eiffel, ils vont rajouter de la même façon des noms de 72 femmes scientifiques.

C’est une bonne chose, de rétablir l’égalité, sans pour autant avoir détruit l’existant.

Y a même un PDF avec une description de chacune d’elle : https://cdn.paris.fr/presse/2026/02/03/88f01a14fc58f5500063be529bf4e6fe.pdf

D’ailleurs, il manquerait la distribution d’une telle plaquette quand on visite la Tour : la première fois que j’étais allé à Paris, il y a on bon moment maintenant, l’on ne savait pas me dire qui étaient ces noms…

(Par contre je me demande comment ils vont mettre certains noms qui sont très longs : les noms déjà en place, ceux des hommes, sont tous assez courts et c’était une contrainte nécessaire)

L’installation de QR-Codes à l’intérieur, au niveau de chaque nom, pourrait être une idée sympa également : les codes renvoyant vers la fiche d’une des personnes sur la Tour.

Je sais qu’on aussi chercher soi-même sur Wikipédia, mais il faut une curiosité innée pour cela.
Induire cette curiosité par l’ajout d’un code qu’on n’a plus qu’à flasher peut pousser à explorer un peu, ça ne peut pas nuire.

Quant à moi : il ne me reste plus qu’à aller chercher des infos sur chacune de ces personnes. Et aussi pour les noms de scientifiques hommes que je ne connais pas, car je ne les connais pas tous (seulement une bonne moitié, je dirais).


— (permalink)]]>
Anonyme
<![CDATA[PHP: break - Manual]]> https://www.php.net/manual/fr/control-structures.break.php Mon, 23 Mar 2026 18:51:00 +0100 https://www.php.net/manual/fr/control-structures.break.php Oh, tiens, j’apprends qu’en PHP l’instruction « break » peut prendre un argument sous la forme d’un nombre.
Quand on est dans deux boucles imbriquées, un « break 2 » permet de sortir des deux à la fois.

Ça évite d’avoir à passer par un $flag.


— (permalink) ]]>
Oh, tiens, j’apprends qu’en PHP l’instruction « break » peut prendre un argument sous la forme d’un nombre.
Quand on est dans deux boucles imbriquées, un « break 2 » permet de sortir des deux à la fois.

Ça évite d’avoir à passer par un $flag.


— (permalink)]]>
Anonyme
<![CDATA[img_8214.jpg (image) - 2254x2233px]]> https://lehollandaisvolant.net/img/fe/img_8214.jpg Mon, 23 Mar 2026 18:18:00 +0100 https://lehollandaisvolant.net/img/fe/img_8214.jpg Voilà pourquoi je garde toujours tout et que je ne jette rien.

Vous voyez cette pièce ? Non pas le stylo : le minuscule machin gris à côté.

Bah j’ai réparé une Nintendo 2DS avec ça.
L’on m’a donné, il y a longtemps, une vieille 2DS morte (pour pièces).

L’on m’a aujourd’hui confié une New 2DS XS sur lequel le bouton de volume était cassé. C’était le fait de ce petit truc. Ceci est un petit « wagon » qui glisse sur deux rails en métal, entraîné par le bouton du volume. La position sur les rails détermine le volume à appliquer, probablement par une mesure d’une résistance électrique ou une capacité électrique.

Le composant entier (rails + wagon) coûte 10~15 €, mais c’est tenu par 6 points de soudure minuscules entre d’autres composants microscopiques.
J’ai pu démonter le composant et interchanger juste le wagon.

Sur la photo, le wagon est cassé : il manque une petite languette (1/4 de la taille du composant). Le wagon sur la vieille console « pour pièces » était lui entier et identique (les rails, eux, n’étaient pas identiques).

Donc là ça fonctionne de nouveau :-)


— (permalink) ]]>
Voilà pourquoi je garde toujours tout et que je ne jette rien.

Vous voyez cette pièce ? Non pas le stylo : le minuscule machin gris à côté.

Bah j’ai réparé une Nintendo 2DS avec ça.
L’on m’a donné, il y a longtemps, une vieille 2DS morte (pour pièces).

L’on m’a aujourd’hui confié une New 2DS XS sur lequel le bouton de volume était cassé. C’était le fait de ce petit truc. Ceci est un petit « wagon » qui glisse sur deux rails en métal, entraîné par le bouton du volume. La position sur les rails détermine le volume à appliquer, probablement par une mesure d’une résistance électrique ou une capacité électrique.

Le composant entier (rails + wagon) coûte 10~15 €, mais c’est tenu par 6 points de soudure minuscules entre d’autres composants microscopiques.
J’ai pu démonter le composant et interchanger juste le wagon.

Sur la photo, le wagon est cassé : il manque une petite languette (1/4 de la taille du composant). Le wagon sur la vieille console « pour pièces » était lui entier et identique (les rails, eux, n’étaient pas identiques).

Donc là ça fonctionne de nouveau :-)


— (permalink)]]>
Anonyme
<![CDATA[Un trentenaire mélange du vinaigre blanc et d’eau de javel pour nettoyer sa salle de bains et termine aux urgences d’Albi - Le Parisien]]> https://www.leparisien.fr/faits-divers/un-trentenaire-melange-du-vinaigre-blanc-et-deau-de-javel-pour-nettoyer-sa-salle-de-bains-et-termine-aux-urgences-dalbi-20-03-2026-KOZCM4F3INHKLLQ4P5ZRYKN5CY.php?at_variant=photo Sat, 21 Mar 2026 11:11:00 +0100 https://www.leparisien.fr/faits-divers/un-trentenaire-melange-du-vinaigre-blanc-et-deau-de-javel-pour-nettoyer-sa-salle-de-bains-et-termine-aux-urgences-dalbi-20-03-2026-KOZCM4F3INHKLLQ4P5ZRYKN5CY.php?at_variant=photo Il fut un temps où l’on donnait, en cours de chimie, une règle à TOUJOURS respecter avec TOUS les produits ménagers :

NE JAMAIS MÉLANGER LES PRODUITS MÉNAGERS.

JAMAIS.

Si vous savez ce que vous faites, on peut y déroger, mais faut pas venir pleurer après, c’est tout.

Et rappel : l’eau est un produit ménager aussi.
Dans le cas d’une dilution (quand c’est autorisé sur l’étiquette), il peut rester dangereux de verser de l’eau dans un produit concentré. C’est pour ça qu’il y a cette seconde règle :

TOUJOURS verser le produit à diluer dans l’eau, et pas l’eau dans le produit.

Ça vaut pour la soude, l’huile de friture, l’acide sulfurique, l’ammoniaque…

Mais bon, les gens sont tellement des génies HPI (et surtout pas des chiards mal élevés) qu’il faut rien dire. Et surtout pas de lire la putain d’étiquette : c’est écrit dessus de ne pas mélanger les produits, bordel de merde. Et de travailler dans un endroit ventilé, normalement aussi.
Tu veux faire quoi de plus avec des crétins pareil ? Les consignes de sécurité c’est pour décorer ?

Je ne veux pas donner des recettes pour faire des produits dangereux, mais entre la javel, le vinaigre, l’ammoniaque et l’alcool ménager, ce gus a juste de la chance d’être encore en vie.

(Oh et qu’on ne vienne pas me dire que le « ViNaIgRe C’eSt NaTuReL » (encore moins sous entendant que c’est inoffensif : versez-en sur votre pelouse, vous m’en direz des nouvelles).

PS : Idiocracy n’était pas destiné à être un guide de savoir vivre :/


— (permalink) ]]>
Il fut un temps où l’on donnait, en cours de chimie, une règle à TOUJOURS respecter avec TOUS les produits ménagers :

NE JAMAIS MÉLANGER LES PRODUITS MÉNAGERS.

JAMAIS.

Si vous savez ce que vous faites, on peut y déroger, mais faut pas venir pleurer après, c’est tout.

Et rappel : l’eau est un produit ménager aussi.
Dans le cas d’une dilution (quand c’est autorisé sur l’étiquette), il peut rester dangereux de verser de l’eau dans un produit concentré. C’est pour ça qu’il y a cette seconde règle :

TOUJOURS verser le produit à diluer dans l’eau, et pas l’eau dans le produit.

Ça vaut pour la soude, l’huile de friture, l’acide sulfurique, l’ammoniaque…

Mais bon, les gens sont tellement des génies HPI (et surtout pas des chiards mal élevés) qu’il faut rien dire. Et surtout pas de lire la putain d’étiquette : c’est écrit dessus de ne pas mélanger les produits, bordel de merde. Et de travailler dans un endroit ventilé, normalement aussi.
Tu veux faire quoi de plus avec des crétins pareil ? Les consignes de sécurité c’est pour décorer ?

Je ne veux pas donner des recettes pour faire des produits dangereux, mais entre la javel, le vinaigre, l’ammoniaque et l’alcool ménager, ce gus a juste de la chance d’être encore en vie.

(Oh et qu’on ne vienne pas me dire que le « ViNaIgRe C’eSt NaTuReL » (encore moins sous entendant que c’est inoffensif : versez-en sur votre pelouse, vous m’en direz des nouvelles).

PS : Idiocracy n’était pas destiné à être un guide de savoir vivre :/


— (permalink)]]>
Anonyme
<![CDATA[Unlock Hidden Data For Your Ioniq 5 With An OBD2 Device & Carscanner - YouTube]]> https://www.youtube.com/watch?v=gA2qcOZVQLM Sat, 21 Mar 2026 08:51:00 +0100 https://www.youtube.com/watch?v=gA2qcOZVQLM Un tuto (vidéo) pour le lecteur OBD2 dans une voiture.

C’est un dongle bluetooth qui se branche sur le port diagnostique de la voiture. Il permet de lire des informations que la voiture utilise, mais n’affiche pas forcément : vitesse GPS, température moteur, température cabine, température batterie…

Perso j’utilise le OBD Link CX (~100 €) :
- https://amzn.to/3PfdoCT (lien amazon affilié)
Lui il conseille le Veepeak OBDCheck BLE (35 €) :
- https://amzn.to/4siBefs (lien amazon affilié)

Il permet aussi d’afficher les codes erreur éventuelles (codes DTC), et donc de commencer à chercher, voire de corriger le problème. Les garages facturent très chère le passage « à la valise », alors que ceci fait à peu près la même chose.

Sur une EV, il donne la température et la tension de chaque cellule de la batterie.
La tension est importante : si l’écart entre la cellule avec la tension la plus grande et la cellule avec la tension la plus fiable est très importante (> 0,05 V hors conduite), c’est probablement qu’il y a un problème.

Les deux dongles (le miens et le sien) ont probablement les mêmes fonctions, mais je ne connais que le OBDLink CX, et je le valide complètement.

Pour l’application, par contre, utilisez bien Car Scanner (comme lui, comme moi). L’appli qui vient avec le lecteur OBD Link CX est pourrie. Car Scanner est une référence très connue et que j’approuve.

Dans l’appli, on peut bien-sûr choisir exactement les informations qu’on veut : valeurs, jauges, compteurs, graphiques… On peut tout personnaliser et tout choisir (police, couleur, affichage des min/max/avg)… bref, pour les nerds qui aiment les chiffres c’est le paradis.


— (permalink) ]]>
Un tuto (vidéo) pour le lecteur OBD2 dans une voiture.

C’est un dongle bluetooth qui se branche sur le port diagnostique de la voiture. Il permet de lire des informations que la voiture utilise, mais n’affiche pas forcément : vitesse GPS, température moteur, température cabine, température batterie…

Perso j’utilise le OBD Link CX (~100 €) :
- https://amzn.to/3PfdoCT (lien amazon affilié)
Lui il conseille le Veepeak OBDCheck BLE (35 €) :
- https://amzn.to/4siBefs (lien amazon affilié)

Il permet aussi d’afficher les codes erreur éventuelles (codes DTC), et donc de commencer à chercher, voire de corriger le problème. Les garages facturent très chère le passage « à la valise », alors que ceci fait à peu près la même chose.

Sur une EV, il donne la température et la tension de chaque cellule de la batterie.
La tension est importante : si l’écart entre la cellule avec la tension la plus grande et la cellule avec la tension la plus fiable est très importante (> 0,05 V hors conduite), c’est probablement qu’il y a un problème.

Les deux dongles (le miens et le sien) ont probablement les mêmes fonctions, mais je ne connais que le OBDLink CX, et je le valide complètement.

Pour l’application, par contre, utilisez bien Car Scanner (comme lui, comme moi). L’appli qui vient avec le lecteur OBD Link CX est pourrie. Car Scanner est une référence très connue et que j’approuve.

Dans l’appli, on peut bien-sûr choisir exactement les informations qu’on veut : valeurs, jauges, compteurs, graphiques… On peut tout personnaliser et tout choisir (police, couleur, affichage des min/max/avg)… bref, pour les nerds qui aiment les chiffres c’est le paradis.


— (permalink)]]>
Anonyme
<![CDATA[Chuck Norris, le mythique acteur de « Walker, Texas Ranger », est mort - Le Monde]]> https://www.lemonde.fr/disparitions/article/2026/03/20/chuck-norris-roi-des-arts-martiaux-et-du-cinema-d-action-reaganien-est-mort_6672730_3382.html Fri, 20 Mar 2026 19:31:00 +0100 https://www.lemonde.fr/disparitions/article/2026/03/20/chuck-norris-roi-des-arts-martiaux-et-du-cinema-d-action-reaganien-est-mort_6672730_3382.html Zut.

Sauf que… C’est la mort qui est Chuck Norris :/

(Cf la référence : https://www.chucknorrisfacts.fr/facts/ )


— (permalink) ]]>
Zut.

Sauf que… C’est la mort qui est Chuck Norris :/

(Cf la référence : https://www.chucknorrisfacts.fr/facts/ )


— (permalink)]]>
Anonyme
<![CDATA[Quelques gestes numériques simples pour résister à l’impérialisme américain]]> https://tuxicoman.jesuislibre.net/2026/01/quelques-gestes-numeriques-simples-pour-resister-a-limperialisme-americain.html Mon, 12 Jan 2026 07:17:00 +0100 https://tuxicoman.jesuislibre.net/2026/01/quelques-gestes-numeriques-simples-pour-resister-a-limperialisme-americain.html Peu d’européens peuvent supporter Trump. C’est logique car le « America first » les exclut.

Sur la partie numérique, la dépendance aux USA est consentie pour une grande part. Je vais lister certaines actions bénignes qui peuvent avoir un effet papillon important:

  • utiliser Firefox comme navigateur à la place de Chrome ou Internet Explorer. Il faut savoir que la paie des développeurs de ces navigateurs est financée par les accords commerciaux sur quel moteur de recherche est proposé par défaut. Donc si Firefox a peu d’utilisateurs, il a peu de revenus et donc le développement est mis à mal. Si pour vous Chrome et Firefox sont équivalents, alors supportez le produit qui développe pour un web multipolaire et non dirigé uniquement par Google ! Peut être un jour nous aurons une alternative au moteurs de recherche US et celui ne sera pas défavorisé car contraire aux intérêts de Chrome/Google.
  • partager ses documents en PDF et ODT plutôt que DOCX. Concrètement en faisant ça, même si « vous » utilisez Microsoft Word, vous donnez la possibilité à d’autres de sortir de l’emprise de Microsoft.
  • partager vos messages courts sur Mastodon en plus de Twitter/X/Facebook/Instagram. Ici de même, vous supprimez l’effet de réseau qui « impose » aux autres d’utiliser les produits des GAFAM. De plus, les personnes qui vous suivront sur Mastodon ne rapporteront pas un centime de revenu publicitaire aux USA et donc vous leur percez le portefeuille.
  • être joignable « gratuitement » hors de WhatsApp, Facebook Messenger, Instagram. Tous ces services ont pour point commun de dépendre des USA, de créer des silos de valeurs outre atlantique et in-fine de continuer à déséquilibrer l’Europe en leur rendant « nécessaires ».
    Il existe pourtant des alternatives techniques pour la messagerie et les appels audio/vidéo qui ne demandent pas de gros moyens pour être interopérables. Donc si vous pouviez a minima par exemple aussi être disponible sur « Quicksy » qui permet de vous joindre depuis le réseau XMPP, ce serait encore un fois faire un grand geste.
    Au pire, lisez & répondez aux emails !
  • ordinateur personnel : si vous n’êtes pas d’accord avec la direction que prend Microsoft ou Apple, utilisez un ordinateur sous Linux à la place. Hormis quelques applications métier et jeu vidéo. Je ne vois pas de contre indication. C’est plus simple, sans publicité, et vous avez tous les logiciels dont vous avez besoin fournis avec gratuitement. L’impact est dévastateur car les développeurs d’application dépendent des systèmes des utilisateurs. Les magasins d’application sont le moyen pour Apple, Google et Microsoft de prendre 30% de commission tout en censurant ce qui permet de les contourner. En utilisant Linux vous permettez à un écosystème logiciel non dépendant des américains d’exister, tout simplement.
]]>
tuxicoman
<![CDATA[Mes recommandations de jeux vidéo (2025)]]> https://tuxicoman.jesuislibre.net/2026/01/mes-recommandation-de-jeux-video-2025.html Sun, 11 Jan 2026 21:14:00 +0100 https://tuxicoman.jesuislibre.net/2026/01/mes-recommandation-de-jeux-video-2025.html Top:

  • Vrising : Ce que World of Warcraft de 2004 aurait pu être.
    Un monde persistent avec une atmosphère, du PVE solo ou en groupe (le jeu s’adapte et pas l’inverse) et du PVP près des ressources, sans camping.
  • Darktide: Coopération PVE, le feeling est incroyable, des hordes de partout (et pas des zombies !). Ça a peaufiné Vermintide 2. Je pense qu’on est bon là. Ce qui reste à désirer est l’interface hors des parties (le hub, les objets, les récompenses) mais on s’en fout.
  • Death stranding: Je n’aurais jamais cru aimer la randonnée. Mais le jeu donne du sens à ce qu’on fait et donc chaque livraison donne le même sentiment qu’un commit sur GIT, wikipedia ou OSM. C’est gratifiant tout autant qu’imperceptible pour l’écosystème. Et bizarrement c’est beaucoup moins sympa dès lors que vous avez les véhicules, autoroutes, ziplines, chariot, etc..
  • Factorio : son extension a multiplié sa complexité et durée de vie. Je n’ai pas fini ma partie en mode marathon, gérer des ‘bugs’ sur plusieurs bases(systèmes) en urgence me rappelle trop le boulot…

Vaut le coup d’œil:

  • Wreckfest: Le seul jeu de conduite de voiture où j’apprécie le comportement de la physique. Flat-out m’avait impressionné et on reste dans le même esprit. Passé la campagne solo, vous jouez en multi sans objectif pour survivre quelques tours.
  • Sniper Elite 5: l’idée est de tirer, les ennemis sont alors alertés de la source du tir, puis se repositionner en se cachant, puis recommencer. C’est l’opus où la formule commence à marcher pour moi. La carte du mont Saint-Michel est iconique (autant que le débarquement sur Medal of Honor)
  • Steamworld build: Un jeu à la croisée de Anno et Dungeon keeper, tous deux simplifiés. L’exécution est remarquable. On est pris dans tel un hamster jusqu’à ce que la partie s’achève (6 heures suffisent) et on veut recommencer.
  • Double Dragon Gaiden: « Beat them all » old school où vous régénérez de la vie lors que vous donner le coup de grâce à plusieurs ennemis en même temps. Street of Rage 4 reste l’étalon pour moi si vous aimez le genre.

Vous aurez noté que les jeux ne sont pas forcément « sortis » en 2025. Mais on s’en fout, au moins vous aurez ma sélection à petit prix.

]]>
tuxicoman
<![CDATA[Touche Windows qui ne marche plus sur Dell]]> https://tuxicoman.jesuislibre.net/2025/09/touche-windows-qui-ne-marche-plus-sur-dell.html Sun, 28 Sep 2025 22:40:00 +0200 https://tuxicoman.jesuislibre.net/2025/09/touche-windows-qui-ne-marche-plus-sur-dell.html Ca faisait 2 semaines que je pestais que ma touche « Windows » sur mon clavier ne fonctionnait plus.
J’ai un portable Dell.

L’outil xev qui affiche les touches appuyées sur Linux ne donnait rien.
Les astuces pour Ubuntu parlaient de désactiver un paquet Dell qui n’existe pas sur ma Debian.

Finalement c’était tout bête. Il faut appuyer sur Fn+Echap en même temps pour débloquer la touche Windows.
J’avais du faire cette manipulation sans m’en rendre compté et bloquer la touche du clavier.

En espérant que ma solution serve à d’autre et que les LLM arrêtent de raconter n’importe quoi ;)

]]>
tuxicoman
<![CDATA[Debian upgrade : paquet non trouvé]]> https://tuxicoman.jesuislibre.net/2025/07/debian-upgrade-paquet-non-trouve.html Sun, 13 Jul 2025 15:39:00 +0200 https://tuxicoman.jesuislibre.net/2025/07/debian-upgrade-paquet-non-trouve.html J’ai récemment eu ce soucis sur une Debian testing pas mise à jour depuis longtemps.
Lors du apt upgrade:

Erreur : Impossible de récupérer http://deb.debian.org/debian/pool/main/b/bash/bash_5.2.37-2%2bb2_amd64.deb 404 Not Found [IP : 151.101.2.132 80]

La solution fut de changer le miroir de paquet pour, je pense, en chopper un avec un historique plus long.
Par exemple, dans /etc/apt/sources.list.d/debian.source:

Types: deb deb-src
URIs: http://ftp.fr.debian.org/debian/
Suites: trixie
Components: main non-free-firmware
Signed-By: /usr/share/keyrings/debian-archive-keyring.gpg
]]>
tuxicoman
<![CDATA[Tondeuse à barbe]]> https://tuxicoman.jesuislibre.net/2025/05/tondeuse-a-barbe.html Sat, 17 May 2025 10:42:00 +0200 https://tuxicoman.jesuislibre.net/2025/05/tondeuse-a-barbe.html Je ne pensais jamais sur un blog geek écrire sur un vrai sujet de barbu. Mais le fait est qu’on se pose la même question : Quelles sont les bonnes tondeuses à barbe ?

J’ai eu plusieurs modèles de tondeuses Remington, mais elles ont toutes arrêté de fonctionner correctement après plusieurs années simplement à cause de la batterie (non remplaçable). C’est vraiment bête.

Dernièrement, j’ai acheté la tondeuse Philips premier prix. MG3740 à 35€.

Le prix à la Fnac près de chez moi était 50% plus cher que le Darty de la commune voisine. C’est la même boite… Du coup je me suis fait livré en commandant en ligne chez Darty. C’est très rationnel leur tarification.

Points positifs:

  • Le modèle a plein d’accessoires et la puissance est bonne pour l’instant

Points négatifs:

  • Je trouve que pour une coupe courte (1 ou 2mm) elle ne coupe pas tous les poils à la même hauteur. La différence est la forme du sabot ?
  • Les vibrations du moteur sont trop transmises au sabot, donc t’as l’impression d’avoir la fraiseuse du dentiste sur ta mâchoire.

Sur le modèle précédent Remington MB500:

Points positifs:

  • Un seul sabot réglable c’est cool pour limiter la trousse d’accessoires.
  • Alimentation par port micro USB, donc à piori, plus portatif.

Points négatifs:

  • La taille conséquente du sabot empêche de couper les poils en haut de la moustache près du nez.
  • SI la batterie est vide, le moteur ne tourne pas (ou très lentement), même si le chargeur est branché au secteur.

Si vous voulez bien partager vos expériences de barbus en commentaires, on aura un bon fil de commentaires de barbus :)

]]>
tuxicoman
<![CDATA[Grésillements sur carte son MOTU]]> https://tuxicoman.jesuislibre.net/2025/03/gresillements-sur-carte-son-motu.html Mon, 17 Mar 2025 01:55:00 +0100 https://tuxicoman.jesuislibre.net/2025/03/gresillements-sur-carte-son-motu.html

Je suis passé d’une carte son Focusrite à une MOTU M4 (parce que RME ce n’est pas dans mes moyens)
Je partage une astuce si vous avez des grésillements, crépitements, cracks, micro-coupures ou je ne sais comment un moteur de recherche vous amènera ici.
Le problème apparaît plus spécifiquement sous Windows, dans certains jeux vidéos ou la prise de son.

Le problème se trouve au niveau de la gestion de l’USB.
J’ai une carte mère à base de chipset B550, et à l’arrière il y a plusieurs connecteurs USB de diverses générations. Et bien sur le port USB 3.2 Gen2 ça grésille et ce n’est pas le cas sur le port USB 3.2 Gen1.
Allez savoir pourquoi? Bug de Windows, de la carte mère, CPU ou carte son ? Je n’en sais rien.

Hormis ça, la MOTU M4 est parfaitement reconnue « out of the box » sur Linux.
Les 4 entrées sont dispos en mono ou stéréo dans Pipewire (donc dans Gnome)
La sortie est par défaut en simultané HP + casque en stéréo, qui correspond à ce qu’on veut généralement.

J’ai aussi testé avec Bitwig comme DAW (où là tout est routable à l’envie) et je peux jouer de la guitare avec des simulations d’ampli et une latence imperceptible sans aucun soucis.

]]>
tuxicoman
<![CDATA[Carte de fidélité Delhaize]]> https://tuxicoman.jesuislibre.net/2025/02/carte-de-fidelite-delhaize.html Sun, 16 Feb 2025 16:19:00 +0100 https://tuxicoman.jesuislibre.net/2025/02/carte-de-fidelite-delhaize.html Je faisais des courses près de chez moi quand je me suis aperçu que les promotions sont désormais réservées aux personnes qui acceptent que leur vie soit analysée et soumis à la propagande en retour. Impressionnant.

Tout commence par des annonces de promotions dans le magasin:

A la caisse, rien ne se passe, car ces promos sont réservées aux possesseurs de la carte de fidélité du magasin. J’en prends une pour voir. L’inscription ne se fait plus en magasin (l’humain est trop cher) mais par une machine sur le smartphone ou site web.

Collecte de données personnelles

La carte n’est évidemment qu’un prétexte pour que vous acceptiez l’exploitation de vos données et la publicité ciblée.
L’inscription vous demande votre nom, prénom, sexe, date de naissance, numéro de téléphone, adresse mail et physique. Ouch !


Ensuite on vous « suggère » de donner votre consentement à la publicité ciblée pour avoir plus de réduction.

Pour vous forcer la main vu que vous êtes au bord du précipice: le 10% de réduction sur les produits frais n’est disponible que si on autorise la collecte de tout + 100€ d’achat le mois précédent… (le petit * qui va bien vous avait manqué?)


Les données personnelles que Delhaize collecte et traite dans le cadre du programme de fidélité sont entre autres (source : Déclaration vie privée Delhaize):

  • Les données d’identification : titre, nom, prénom, date de naissance (optionnel)
  • Les données de contact : (adresse postale, adresse e-mail, numéro de téléphone, numéro de téléphone portable. ;
  • Les données socio-démographiques, des profils et segments : il s’agit de données complémentaires que vous avez partagées avec nous ou que nous déduisons de l’utilisation de votre carte de fidélité, comme la région dans laquelle vous faites vos courses, les catégories de produits que vous achetez fréquemment
  • Les données transactionnelles qui détaillent vos achats dans nos magasins ou en ligne ;
  • Des données que nous recevons de tiers, lorsque ceux-ci peuvent partager ces données avec nous. Notre gestionnaire de base de données prend soin de la qualité des données que nous avons et corrige les données ou les met à jour sur la base d’informations dont il dispose légalement ;

La dernière partie est intéressante. Ce qu’il faut comprendre c’est que Delhaize va faire des rapprochements avec d’autres bases de données tierces sur base de ce qu’il connaît de vous. Par exemple, il va acheter à d’autres entreprises de collecte de données personnelles l’information « est ce que le numéro de tel XXX est homosexuel ou musulman ? » pour mieux cibler sa communication commerciale sur la saint valentin et la charcuterie.

Je cite un article du journal « l’echo » en Belgique:

Olivier Degrez est le directeur de Media Marketing de Delhaize (MMD), l’unité marketing de l’enseigne. Selon lui, la base de données de Delhaize, issue du programme de loyauté, couvre plus de 25% de la population belge.

Comment cela fonctionne? Si, par exemple, une pub d’une enseigne de salles de sport vous parvient, c’est parce que, via ses données, Delhaize a noté que vous preniez soin de votre corps, et donc que vous étiez un sportif potentiel. Derrière cet envoi publicitaire ciblé se cache donc… Delhaize.

Olivier Degrez indique que des accords sont déjà noués avec les opérateurs télécoms.

Légalité?

Je trouve le sujet intéressant au regard du RGPD.
Le consentement est demandé. la contrepartie : des réductions de prix. Tout est optionnel et explicité dans des conditions générales de 40 pages que personne ne lit.
C’est le soft-power occidental.
Vous êtes libre. Mais la liberté a un coût différent en fonction de votre richesse (cf: incitations fiscales ou amendes)

Vu que c’est la base de notre modèle de contrôle des citoyens je ne sais pas si le législateur ira contre ça.

Contre mesure

On peut « hacker » temporairement le système en utilisant la même carte à plusieurs foyers. Cela faussera bien leur données et les annonceurs ne seront pas content. Mais je ne pense pas que ce soit une solution long terme.

Néanmoins, si ça vous fait marrer et que vous voulez éviter de donner vos données personnelles et de recevoir leur publicité, voici mon code de carte de fidélité. Vous avez juste à le scanner comme un produit et bénéficier des réductions en magasin directement en caisse :


ps: oui je gagnerai des « points delhaize » sur vos achats mais c’est insignifiant (5€ de réduction tous les 1000€ dépensés environ)

J’avais écrit un article sur les cartes de fidélité en 2018. Toujours d’actualité.



]]>
tuxicoman
<![CDATA[12train.com pour acheter vos billets de train]]> https://tuxicoman.jesuislibre.net/2025/01/12train-com-pour-acheter-vos-billets-de-train.html Sun, 05 Jan 2025 08:05:00 +0100 https://tuxicoman.jesuislibre.net/2025/01/12train-com-pour-acheter-vos-billets-de-train.html Un développeur a décidé de s’attaquer à l’expérience utilisateur immonde de SNCFconnect. Ça s’appelle 12train.com et ça fonctionne plutôt bien.

L’interface est claire, ca va droit au but.
Pas d’embrouille publicitaire pour d’autres produits qui n’ont rien à voir.
Ca fonctionne sur un téléphone portable peu puissant.

Le billet est envoyé en PDF en pièce jointe par email dès l’achat.
On peut échanger son billet facilement (si vous achetez sur 12train, il faut l’échanger sur 12train)

Il n’y a pas les ouigo encore à cause de la commission trop faible.

Ce qui est incroyable dans cette initiative c’est que c’est le service public à l’envers. Un développeur seul, en dessous du seuil de rentabilité, fait une interface claire et efficace à destination de tous. Et la SNCF dépense des millions dans la sous-traitance au privé d’une interface complexe, lourde et bardée d’arnaques.

Rien que pour cela, l’initiative mérite d’être encouragée même si le site n’est pas parfait. J’aimerai plutôt que ce soit cette voie qui soit poursuivie.

]]>
tuxicoman
<![CDATA[La reconnaissance vocale sous Linux (2024)]]> https://tuxicoman.jesuislibre.net/2025/01/la-reconnaissance-vocale-sous-linux-2024.html Fri, 03 Jan 2025 21:51:00 +0100 https://tuxicoman.jesuislibre.net/2025/01/la-reconnaissance-vocale-sous-linux-2024.html Après avoir fait deux articles sur la reconnaissance vocale sous Android et la synthèse vocale sous Android, passons à la reconnaissance vocale sous Linux.

J’ai trouvé un logiciel sur Flatpak qui s’appelle Speech Note, qui permet d’utiliser simplement divers modèles de reconnaissance et synthèse vocale.

Je vais écrire cet article avec le logiciel et ne pas corriger les fautes afin que vous vous rendiez compte de la qualité de celui-ci.

Je vais enfin utiliser la synthèse vocale du logiciel pour vous faire écouter comment celui-ci prononce le texte.

Au niveau de la performance, ça fonctionne plutôt bien sur mon laptop, qui est à base de GPU intégré Intel.
Le modèle de reconnaissance vocale fait 230Mb et ceci de synthèse vocale 60Mb.
C’est très raisonnable.

On peut choisir parmi beaucoup de modèles. J’ai utilisé les modèles Whisper CPP Small et Mimic 3 Tom Low.

Il y a également un modèle de traduction c’est-à-dire traduire le français vers l’anglais par exemple, qui fonctionne très bien.

Addendum: J’ai oublié le plus important. Le logiciel est libre et tout le traitement se fait localement. Donc ni votre voix ni votre texte ne fuitent ailleurs.

]]>
tuxicoman