C'est tellement cool d'avoir un client lourd pour Matrix, le truc se lance en une fraction de seconde et prend que dalle en RAM. Comparé à lancer 3 onglets d'applications React / Angular / Vue ça change la vie.
Reste plus qu'à trouver un client lourd pour Pleroma / Mastodon autre qu'un en ligne de commande (c'est assez contraignant) et j'aurais presque plus besoin d'avoir un navigateur web qui tourne tout le temps.
On vit dans une époque ou le traditionnel "client lourd" est plus léger que le client web :/
Follow

@GeoffreyFrogeye @GeoffreyFrogeye Hehe. Oui. Du super lourd même. 70 millions de lignes de code pour Firefox. La bonne question a se poser c’est « pourquoi ». Spoiler : c’est politique, c’est une histoire de crypto-fascisme et de cyber-domination... Un bisoux tendre maxi calin si tu sais démontrer pourquoi

@stman Ben mon avis c'est que c'est plus simple à développer (une base de code en HTML/JS qui tourne absolument partout) du coup les devs (ou surtout leurs managers) en abusent.

@GeoffreyFrogeye je suis pour une supression de HTML CSS javascript et compagnie. Faire tourner du code, téléchargé a distance, sur un navigateur en local a toujours été une aberration en terme de modèle de sécurité. Les navigzteurs web sont des dangers publics pour la cybersecurité. Les réseaux de télécomlunication sont desormais suffisament rapides et a faible latence pour générer le rendu sur les serveurs, et avoir des clients hyper légers type VNC qu’on pourrait blinder en

@GeoffreyFrogeye terme de cybersecurité, grace a leur extreme simplicité. J’ai jamais aimé toutes ces technologies web, j’ai toujours constaté que leur complexification inutile serait un boulevard aux instrumentalisation militaires de cyber-domination. Et j’avais raison. Si y avait que moi tout ca partirait direct à la poubelle.

@stman Je suis pas totalement d'accord. OK HTML CSS et JS sont des aberration parce qu'ils évoluent d'un truc pas du tout fait pour ce dont on les utilise à la base. Aucune alternative n'a émergé, ou alors elles se reposent sur ces technos ce qui est au final pire. Mais je pense pas que le concept de l'exécution de code à distance soit à banir, au contraire. D'une point de vue sécurité, on peut très bien intercepter les connexions entre le client et le serveur, que ce soit du code ou ...
@GeoffreyFrogeye ... un genre de VNC. Avoir une logique client permet même de mieux prévenir ce genre d'attaque en gérant ça pas bêtement (aka pas comment c'est fait ajd). D'un point de vue pratique, ta proposition nécessiterait d'avoir une bonne connexion en permanence, et même si on fait des progrès de ce côté là, ça reste inaccessible pour une majeure partie de la population. D'un point de vue énergétique, faire du calcul sur une machine en local revient généralement moins lourd que de le ...
@GeoffreyFrogeye ... faire à distance et de transmettre ça, surtout sur une connexion sans-fil, qui plus est à haut débit. Enfin, d'un point de vue idéologique, ta solution favorise la centralisation des données. Tes applications tourneraient sur un serveur distant ce qui peut poser des souci de dépendance et de vie privée.

@GeoffreyFrogeye Je suis dinc pour un retour en grace d’un nouveau genre de « terminaux » comparables a un client VNC pour interagir a distance avec une becane, et pour une nouvelle generation de serveurs qui génèreraient les rendus et qui seraient serveurs de ces clients type V’C afin de foutre à la poubelle toutes ces technos HTML javascript et compagnie qui ont atteint une telle complexité volontaire pour permettre leur militarisation.

@GeoffreyFrogeye des dangers publics en terme de cybersecurité, des usines à gaz incontrollables, même en logiciel libre, du coté client comme du coté serveur. La complexification inutile et sans limite des choses est une tactique militaire de cyber-domination, cyber-imperialiste, et nous sommes de nombreux crypto-anarchistes à le dénoncer depuis des années.

@GeoffreyFrogeye j’ai toujours deteste HTML/JS et plus que jamais tous les arguments avancés pour les dénoncer depuis longtemps sont parfaitement valides. Le W3C est un organisme de cyber-domination cyber-imperialiste sous l’influence quasi totale de l’empire. C’est un cheval de troi de cyber-domination. Tout ce qu’ils font c’est de la daube, de la bonne daude.

@stman Y a un truc que je pige pas dans ta logique, tu crains la cyber-domination mais tu accepterait volontiers de reléguer, disons le rendu d'un article de presse que tu veux lire, à un serveur que tu ne contrôle pas ?

@GeoffreyFrogeye Me fais pas dire ce que je n’ai pas dit. Je suis contre TCP/IP, contre le modèle client serveur, et pro réseaux P2P 100% decentralisés, mais en attendant, foutre a la poubelle toute ces technos web usine a gaz cyber-dominatrices et imperialistes serait une bonne chose, pour les remplacer par ce que je suggère, donc sans code telechargé sur les clients. En environnement 100% P2P et decentralisé, la problematique est differente et les perequations aussi.

@stman Ok, mais en P2P y a pas de serveur, et si on télécharge pas de code sur le client... On éxecute plus de code ? Ça me parait un peu limitatif :D
@stman Et avant de jeter tout ça à la poubelle, ne pense-tu pas qu'il faudrait d'abord penser à concevoir et développer des alternatives ? Non parce que sinon demain on se retrouve sans rien.

D'ailleurs ces technos elles servent à quelque chose quand même. Faire du tout décentralisé ou distribué voire P2P c'est noble, mais c'est quand même vachement compliqué à faire fonctionner du premier coup. Au moins elles servent pour prototyper.

@GeoffreyFrogeye Mais me concernant, avec mon crypto-anarchisme situationniste, je suis poyr tout foutre l’actuelle architecture de cyberespace à la poubelle, et pour en recreer une nouvelle, from scratch, totalement P2P nativement. En clair, pas pour du P2P overlay la daube d’internet basé sur TCP/IP. On est cyber-revolutionnaire ou on l’est pas. Le statut quo actuel sur l’actuelle atchitecture de cyberespace est irrecuperable. Faut tout jetter.

@stman Ah, TCP/IP c'est pas décentralisé ? Faudra que tu m'explique. C'est laquelle l'autorité qui contrôle tout le traffic, autorité que je peux démonter et demain tout le traffic TCP/IP (donc internet basiquement) s'arrête ?

@GeoffreyFrogeye C’est architectural. TCP/IP *et* la topologie physique des reseaux qu’il impose dans les faits est en réalité hyper-centralisé. Trop facile et fallacieux que de parler que du protocole logique, et pas de la structure de réseau physique qu’il impose dans les faits. Viens a mes meetup crypto-anarchistes situationnistes, on ne parle que de ça.

@GeoffreyFrogeye L’empire mène une guerre sans putié, sur tous les fronts, pour assoire et consolider sa cyber-domination du monde. L’actuelle architecture de l’actuel cyberespace et les architectures de l’ensemble des cluches technologiques qui la sous-tendent mène mécaniquement, et nous savons le démontrer, a une concentration infinie des cyber-piuvoirs et des richesses.

@GeoffreyFrogeye C’est cet « internet » de merde qui a enfanté les GAFAM, c’est sa putain d’architecture que nous volissons qui a permis le developpement exponentiel et incontrolable de ces mêmes GAFAM. Tout n’est qu’une question d’atchitecture.

Pour les crypto-anarchistes situationnistes, on démontre que « Architecture is law », et que ce sont elles, dans toutes les coyches technologiques, qui faconnent le modele de cyber-pouvoir associé a une architecture de cyberespace.

@GeoffreyFrogeye Donc que ce sont elles, qui faconnent la société, et qui font emerger ou disparaitre certains regimes politiques et modèles. Tout est architecture. Et ce sint les anarchistes situationnistes qui sans le savoir nous ont permis de faire toutes ces avancées, toutes ces découvertes, qui révolutionnent notre façon de penser.

@GeoffreyFrogeye ... Et de concevoir, from scratch, des architectures de cyberespaces alternatives, avec des modèles de cyber-piuvoirs alternatifs, et avec des choix architecturaux alternatifs dans toutes les couches technologiques connues qui sous-tendent une architecture de cyberespace, cela inclu egalement la topologie physique des reseaux, d’une tres grande importance.

@GeoffreyFrogeye Tiens, dans un autre registre, pas un seul des protocoles qu’ils normalisent sur TCP/IP est hidden channel safe, pas un seul. Meme TCP/IP ne l’est abdolument pas. La belle affaire me diras-tu ? Ou est le problème ? Ben ca rend possible toutes les techniques de desanonylisation actives par fingerprinting des datagrams, faisant de Tor et des VPN une plaisanterie pour script kiddie pour assurer l’anonymat. Le W3C est un organisme crypto-fasciste cyber-impérialiste

@GeoffreyFrogeye de l’empire, encore un. Un pseudopode de la NSA. Parmis les nombreux qui existent.

@stman Ben ça m'etonne pas plus que ça tout ce qui est hidden channel est beaucoup plus complexe à développer et intrinsèquement moins performant. Du coup personne n'en veux. Le W3C ne fait que suivre.

@GeoffreyFrogeye bref, il n’y a aucune liberté, même avec du logiciel libre, dans des programmes dont le code source fait 70 millions de lignes de code source. Pour moi, la limite en nombre de lignes de code source pour pretendre a la liberté est de 20000 ou 30000 lignes de code source, maximum. Au dela, une personne seule ne lis pas, ne lis plus.

@stman Du coup le kernel Linux avec ses 161K lignes de codes est privateur ?

@GeoffreyFrogeye 150000 lugnes, c’est deja trop, mais c’est encore gerable. Je sais comment, avec d’autres crypto-anarchistes, ramener tout ca à 20000 ou 30000 lignes, limite maximale qui permet a une personne seule, autonome, avec yn savoir raisonnable et dans un temps raisonnable, de pouvoir verifier en totale autonomie si il se fait sodomiser ou pas. Cette discipline de simplificatiô selon les principes de KISS s’appelle les efforts d’horizontalisation du modele de

@GeoffreyFrogeye confiance dans le developpement de technologies libres. Beaucoup disent que c’est une utopie impossible à atteindre ou vers laquelle on ne peut pas tendre. C’est faux. Archi faux. Et nous en apporteront un jour la preuve par l’exemple, puisqu’on va le faire. Tout n’est qu’affaire d’architecture, de bien optimiser et penser les architectures en mode KISS. Tout de façon, les kernels tels qu’on les connait, dont l’architecture est forcée par le modele de

@GeoffreyFrogeye programlation des mucroprocesseurs actuels avec leurs saloperies de PMMU completement dépassées vont être ballayés par les nouvelles architectures de microprocesseurs, sans PMMU, avec autre chose conceptuellement de bien mieux à la place, et les micro-kernels qui seront fait avec, bien plus puissants et securisés que les actuelkes daubes a cause des PMMU, tiendront sans soucis dans moins de 20000 lignes de code assembleur. Meme pas de code C. Les PMMU out !

@stman Le concept d'isolation mémoire avec un micro-/proto-kernel n'est pas incompatible avec les MMU, c'est même prouvé formellement.
Mais effectivement, l'utilisation de tels kernels permettrait de s'affranchir de complexité dans les µP et améliorer la sécurité et à terme les performances. Mais d'ici à ce que tout soit formellement prouvé (ce qui n'a pas d'intérêt sinon), et qu'on réimplémente tout ce dont on a besoin au dessus, ça va prendre du temps, on peut pas virer tout ça du jour au lendemain.

@GeoffreyFrogeye J’ai jamais dit le contraire. Tout le fric de l’ANSSI foutu dans le developpement de son OS libre basé sur un kernel Linux est du fric totalement foutu en l’air : Ils refont le sommet, alors que c’est les bases qu’il fallait refaire : Micro kernel libre et processeur libre integrant, hardcodé, les principales fonctionnalités d’un micro-kernel dans le processeur lui même, hardcodé : à savoir, Allocation memoire, timeslicer et gestion de processus avec

@GeoffreyFrogeye Sandoxing memoire stricte, hardcodé, a la place du merdier des PMMU au modele de securité centralisé : Tout le pouvoir a celui qui peut acceder aux registres de configuration de la PMMU en ecriture. Enfin, IPC, et revoir et retravailler les notions d’interruptions, de DMA, et de librairies statiques et dynamiques pour hardcoder tout ca tout en restant compatible le plus possible avec les compilosxactuels, qui a faire un espece de linker post compilation fait

@GeoffreyFrogeye maison à la place des linkers traditionnels. Refaire un linker dédié a cette nouvelle archi est facile, y compris pour y inclure tous les nouveaux opcodes de ces nouvelles instructions dispo sur le processeur-micro-kernel, par contre bricoler les compilos pour qu’ils intègrent ca en natif, c’est s’embarquer dans de lourds travaux complexes.

@GeoffreyFrogeye Mais pour revenir au MMU que je connais tres bien pour avoir codé des systemes de protection memoire en assembleur « faits maison » en generant mes propres arbres de pagination, ce sont des boulets dépassés et tres dangereux en terme de modele de securité les MMU. Celui qui peut executer du code arbitraire via une faille avec le processeur dans un mode privilégié permettant un accèsen écriture aux registres de config PMMU est le maitre absolu àbord de ta bécane

@GeoffreyFrogeye et c’est tout le modèle de securité du kernel et de l’OS qui tombent d’un coup comme des merdes. Si t’appelke pas ça un danger public d’ordre conceptuel en terme de cybersécurité et une hyper centralisation de ce dernier, en mettant « tous ses oeufs dans le meme panier, a savoir la PMMU et ses registres de configuration », je sais pas comment appeler ca. Les PMMU sont pour moi des concepts dépassés dans leur implementation actuelle. TrustZone y compris.

@GeoffreyFrogeye Et passage, puisqu’on est à parler de ça, le seul repriche que je fais à Linus Torvald, c’est de pas avoir également été ingénieur electronicien spécialisé en architecture des systèmes à microprocesseurs et architectures des licropricesseurs et de s’être totalement soumis aux architectures des processeurs actuels qui dirigent la façon dont est architecturé un kernel, en particulier avec les PMMU. Toutes les faiblesses architecturales du modele de sécurité de

@GeoffreyFrogeye tous les kernels dont les modeles de sécurité sont hyper vulnérables car hyper centralisés viennent de l’utilisation forcée des PMMU par les fabricants de processeurs. Toute marque confondue. Je parlerai pas de complot crypto-fasciste et cyber-imoerialiste mais presque.

@GeoffreyFrogeye Et de joli processeurs libres de nouvelke generation, embarquant de façon harcodée une bonne partie des fonctionnalités d’un kernel, pour moins de 20000 lignes de code VHDL, prendront la place de tout ca. Le coeur du processeur devant lui aussi tenir dans moins de 20000 lignes. C’est une limite arbitraire, biensur, caveut dire deux mois maxi pour tout relire tout seul comme un grand.

@GeoffreyFrogeye Si nos kernels sont toujours aussi pourris et volumineux, rendant leur relecture complete par une personne autonome, c’est parcequ’on a voulu maintenir une frontière étanche entre logiciel et matériel, ou plus precisement, entre logiciels kernel et architecture des lmicroprocesseurs. En faisant voler en eclat cette frontière arbitraire, l’objectif des 20000 lignes max est enfin à notre portée.

@stman D'ailleurs j'y pense, la plupart du code basé sur du HTML JS et CSS est fait avec des framework, ce qui simplifie la tâche du dev (au détriment des performances) ; ça réduit plus le nombre de lignes de codes au niveau applicatif que ça ne l'augmente je pense...

Et les applications P2P de par leur complexité augmentée augemente le nombre de LOC aussi...
Sign in to participate in the conversation
Mastodon

Follow friends and discover new ones. Publish anything you want: links, pictures, text, video. This server is run by the main developers of the Mastodon project. Everyone is welcome as long as you follow our code of conduct!