Kernel Panic : une fois n’est pas coutume

    Le Kernel, les utilisateurs de windows le connaissent pour ses paniques bleutées.

    Le Kernel, les linuxiens le connaissent pour les compilations qu’il demande parfois à l’ajout de module.

    Le Kernel, un utilisateur de Mac OS en a rarement entendu parlé.

    Dans le premier cas, on le subit, dans le second on essaie d’en faire quelque chose pour lequel il n’a pas encore été prévu, et dans le troisième, on attend juste que ça marche. Je ne parlerai pas du premier cas c’est le plus célèbre et même parfois la risée de toute l’informatique. Windows est particulièrement instable (même si cela se résoud apparemment avec le temps) et c’est un fait bien connu voire même l’archétype du produit pas bien conçu qui rafle la mise à des produits mieux conçus et moins chers.

    Mac OS et le Linux, tous deux des Unix, ne souffrent pas de ces défauts de stabilités, et pourtant voilà qu’en une semaine, j’ai du a en subir des deux. J’ai en effet un mac à la maison qui me sert à de la conversion de fichier envoyé par mes clients avant de les passer sur mes nombreux linux (4 à la maison) sans compter les androids.

    Enfin un kernel panic sous linux

    Enfin un kernel panic sous linux

    MacOS a la facheuse tendance de faire des mises à jour dans trop nous demander notre avis. Bon, on les accepterai certainement mais là par manque de chance, l’ordi n’a pas voulu redémarrer. Ce n’est pas la première fois, ça doit être au moins la 3° en trois ans sur ce poste. Cette fois il est intervenu à un moment où j’installai une mise à jour d’Antidote, logiciel de correction de français qui nous aide énormément pour l’édition des livres soit au sein des livres commerciaux soit au sein de flossmanuals (il n’y a évidemment pas d’équivalent libre). Bref il a fallu remettre tout le système sur pied. Le plus effrayant, c’est que dans la continuité de la logique “simplicité” d’Apple pour laquelle tout message effraie l’utilisateur, donc par lequel il est préférable de ne rien dire) l’ordinateur a simplement mouliné systématiquement. Mes enfants, et aussi moi-même avons essayé de le relancer plusieurs fois, de le laisser s’éteindre seul avant de se décider à réinstaller au bout de 3 jours de tentatives autres avortées. Un simple message de Panic nous aurait simplement éviter de perdre notre temps.

    En ce qui concerne le linux, il s’agit d’un ubuntu. J’étais en train de faire le livre sur Gimp pour flossmanuals (à venir sur flossmanualsfr.net).Voilà que j’ai besoin de faire une capture d’écran avec un menu contextuel activé sur une fenêtre et hop boom. Kernel Panic. Impossible a reproduire. Mais ce premier Kernel Panic (même si pas premier plantage) de ma vie de linuxien (16 ans tout de même) vaut bien un petit mot et un petit remerciement. Linux, grâce à Ubuntu (11.10) , est enfin un système comme les autres :)

    le retour des auteurs

      Les infos fusent en ce moment sur l’évolution de l’offre de l’édition numérique. Entre l’HADOPI qui s’auto-complimente et les éditeurs de livres qui n’arrivent pas à mettre le pied à l’étrier, il est flagrant d’observer un décalage fondamental.

      Pourtant comme le MP3 ou le MP4 sont rentrés dans les moeurs, pourquoi les livres électroniques ne connaitraient-ils pas un succès ?
      D’abord le livre véhicule une image particulière : luxe, culture du à la fois à son histoire mais aussi aux changements qu’il a permis au sein de nos sociétés. Sans l’évolution des techniques d’impressions et de méthodes d’édition qui ont suivies, nos sociétés ne se seraient jamais développées de la même façon car le livre est une part importante de la formation et de l’auto-formation essentielle au développement de l’activité économique.
      Le livre, même, possède un caractère presque religieux : le livre c’est la Bible, le Coran, bref, de Saints Ecritures, comme on dit. Pas étonnant, donc que les éditeurs aient du mal à passer le cap du changement de support pour le texte.
      Ces éditeurs même ont du mal à être clairs : dans un sens ils nous disent que ce qu’achète un lecteur c’est le contenu, non le livre et dans le même temps, tout est fait pour brider l’utilisateur. Nous reviendrons sur ce point.
      Cependant, avec l’essor des tablettes numériques (plus légères et maniables que des ordinateurs) et des smartphones, voilà que l’édition électronique fait un bon aux Etats-Unis et que les éditeurs français se disent maintenant qu’il faut suivre. Bref, cela fait 10 ans que les changements sont en marche, mais on attend le dernier moment pour s’investir dans la direction. Au final, on aboutit à une sorte de précipation qui risque d’être dommageable à toute la chaîne, de l’auteur au lecteur.
      Cette chaîne, dans les accords actuels, se caractérise par une main mise des vendeurs sur le contenu. Bref, on tente de faire avec les livres ce qui n’a surtout pas marché avec la musique : formats fermés, protection contre la copie… et qui ont fait que les acheteurs en avaient assez.
      Reprenons la chaîne à partir de l’auteur. Le chiffre d’affaire de l’édition est de l’ordre de 3 milliard d’euros en France en 2010 pour 465 millions d’exemplaires vendus sur 600 000 titres dont 67 000 nouveaux. De ceux-ci, les 10 000 titres les plus vendus représente plus de 50% du chiffre d’affaire. La plupart des livres sont donc vendus à de très faibles quantité. La grande majorité des auteurs a donc beaucoup de mal à obtenir un revenu suffisant de la vente pour arriver à continuer la production de ressources.
      Les éditeurs eux-mêmes voient les ventes diminuer. L’augmentation lente de la vente électronique est loin de pallier la baisse. La solution trouvée jusqu’ici est d’augmenter le nombre de titres disponibles pour bénéficier de l’effet nouveauté. La première de cette stratégie tient dans le fait qu’elle épuise les équipes de production (auteur, relecteur, maquettiste), au détriment de la qualité et donc du lecteur (produire plus vite donc moins de temps par ouvrage, pas d’amélioration d’un texte, mais on le refait complétement). Le fait est que le temps passer à la lecture de documents longs diminue, au profit de lecture en diagonal (news sur le web, tweets…). Un français sur 2 n’a pas acheté de livre en 2010. parmi ceux-ci, 25% sont des poches, et romans+livres pratiques+scolaires représentent presque 65% des ventes. Bref, les lecteurs adultes semblent plus enclins à la lecture loisir, reléguant l’apprentissage aux enfants, ce qui limite d’autant la vente de livres qui se veulent “intelligents” ou qui sont le résultats d’innovation réelles (pas que la littérature ne puisse pas innover bien sûr !).
      Il est coutume de dire que les imprimeurs vont y perdre. Cela n’est pas nécessairement le cas. Le développement de l’impression à la demande engendre un nouveau type de service qui pourrait compenser certaines pertes dans les secteurs traditionnels du livre édité.

      Finallement, il nous reste les diffuseurs et distributeurs. Chez les distributeurs physiques de grande échelle, les rayons livres se réduisent peu à peu, focalisant toujours plus sur des grands titres. Dans le même temps, les petites librairies n’arrivent plus à suivre malgré les efforts consentis. Reste donc que les grands distributeurs qui avaient une part importante du marché sont ceux qui peuvent maintenant prendre en charge la vente électronique. Amazon, FNAC et autres vont donc se partager le nouveau marché des livres électroniques en particulier avec la mise sur le marché de matériel de lectures spécifiques. A l’heure actuel, le livre électronique reste en France très cher : en général le même prix que le livre papier alors même que ces coûts de production sont bien moindres, l’investissement quasi nul (les auteurs sont payés sur les ventes souvent 1 an après, pas de frais d’impression ni de diffusion, ne reste à payer que le staff de l’éditeur et la mise en page). Cela à l’avantage de ne pas sonner le glas du livre papier trop vite mais il semble aussi tout à fait anormal de ne pas calculer le prix d’un produit en fonction de son coût de fabrication. Les droits d’auteurs ne sont pas plus élevés, la marge augmente donc seulement pour les éditeurs et les distributeurs.
      A en juger par les récents accords signés entre ces derniers, il semblerait que les éditeurs aient mal négociés leur tournant technologique et se soient laisser dicter les termes du contrat : dans un cas Amazon prend 30% du prix de vente soit environ 5 fois plus que l’auteur qui oscille entre 5 et 15% alors même que c’est l’auteur qui passe le plus de temps à produire le document. Mais il devient courant de nos jours que le travail ne soit pas rémunéré à sa valeur réelle et que certains se réserve la plus grande part. Plus que cela, plus que de vendre sans réévaluer les revenus de totue la chaîne de production, Amazon diffusera les livres dans son format propre, ce qui empêchera l’acheteur de pouvoir livre le livre acheter sur le matériel de son souhait. Ainsi, l’édition électronique pour urdes raisons de marché, adopte une politique de prise en otage de la clientèle alors que le lecteur aimerait simplement accéder au contenu, et que des formats standards comme le epub ont été créés pour assurer la portabilité des documents.

      Cette situation peut-elle perdurer ? Il est fort possible que oui. On a bien vu il y a quelques années les formats propriétaires de musique s’écrouler face au standard MP3. Exit ceux qui voulaient avoir la main mise sur la musique. Mais cette révolution est venue des utilisateurs, en général jeunes, malins et qui communiquent beaucoup entre eux sur les astuces, qui partagent beaucoup les fichiers par manque de ressources financières. En ce qui concerne les livres, dont l’acheteur est majoritairement adulte, parfois moins technophile, dont le temps passé à chercher une solution à un impact sur sa vie familiale, il est probable que la pression sur les formats de fichier se fasse moins forte que pour la musique. Malheureusement. Comme on peut prêter un livre, ou l’emporter avec soi, comment sera-t-il possible d’emporter son livre électronique qui va nécessiter une tablette d’un certain type. En achetant des livres chez différents distributeurs, faudrat-il voyager avec les tablettes de chacun des distributeurs et la grosse valise qui va avec. Qu’en sera-t-il de la possibilité de prêter un livre à un ami si celui-ci n’est pas équipé comme nous ? Bref qu’en sera-t-il de la liberté du lecteur ?
      De son côté, l’auteur a de réelles questions à se poser. S’il vend moins, s’il n’est pas mieux rétribué sur la marge créé, s’il n’est pas mieux suivi par l’édition, n’a-t-il pas intérêt de publier ses livre en dehors des circuits constitués. Deux grandes possibilités lui sont alors offertes :
      - écrire les livres de son souhait, de la façon qu’il lui convient et organiser la publication lui-même en déposant son livre chez les distribiteurs (le même Amazon permet de faire ça depuis très longtemps). Il peut même exister des versions papiers grâce aux sites d’impression à la demande. Dans tout ces cas, l’isolement peut être lourd à porter et l’auteur aura peut-être envie de s’investir dans des réseaux d’auteurs pour bénéficier de dynamiques, de relecteurs… Dans ce cas, on préserve une forme du système actuel, une rémunération sur les ventes, aléatoires.
      - écrire des livres avec un financement préalable, un peu comme une avance. Cette avance peut être l’objet d’un contrat avec un client demandeur ou être le résultat d’une souscription. Si ce modèle est certainement peu pratique pour pour les romans puisqu’il est difficile d’investir sur une histoire qui n’est pas encore écrite (encore que cela existe dans la production filmique), cela peut être tout à fait profitable pour les livres pratiques ou qui doivent être écrits à plusieurs auteurs en partage de compétence. Dans ce modèle, l’auteur est rémunéré et sait à l’avance combien il est sur de recevoir à minima, il peut éventuellement encore percevoir des droits d’auteur selon les ventes. Dans ce contexte, le livre étant déjà financé, il est facile de concevoir que celui-ci soit disponible gratuitement ou à moindre coût, pouvant ainsi bénéficier plus facilement à tous les lecteurs indépendamment de leur ressources financières, sans discrimination. Le financeur lui-même verra son objectif rempli, peut avoir un droit de regard sur le contenu en tant que commanditaire et s’assure éventuellement une reconnaissance en tant que mécène.
      Ce dernier modèle est celui qui est suivi par de nombreux groupements d’auteurs liés au logiciel libre. C’est le cas en particulier de Flossmanuals. Ce modèle mériterait certainement d’être mis en valeur. Il permet de rétablir un équilibre de la chaîne du livre en mettant au coeur l’auteur qui partage ses compétences et ses lecteurs, à la recherche d’informations et de plaisirs, au lieu, cas actuel, de profiter avant tout aux intermédiaires.

      LGM 2011 Day 2

        Le matin est passé très vite, conditionné par notre présentation de FLOSS manuals francophone. Polissage, puis questions qui débordent.

        somme lineque : http://www.zachleat.com/bigtext/demo/ and join OFL

        Inkscape meeting

        présents : doctormon JonCruz, Elisa de Castro Guerra, Cédric Gémy (www.cgemy.com), Kai-Uwe Behrmann (oyranos.org), peter linell (Scribus), R. Lafuente (Shoebot), deviantart,

        Gestion des couleurs

        Documents ActivDesign

        Le même vert imprimé sur papier différent

        colord de la journée précédente a été évoqué mais cette solution est pour le moment repoussée. Rappelons qu’Inkscape supporte déjà le colormanagement. Le vrai soucis tient dans les exports pour gérer les tons directs qui ne

        sont pas encore implémentés dans le SVG même si cela avance, impression CMYKOG, metallic ou autre en particulier dans le refus des fabricant de nuancier de laisser incorporer leurs références dans nos logiciels. Besoin de définir des cas d’usage pour avancer dans le process. L’autre point tient dans le support des profils incoporés dans les images bitmap qui sont converties en sRGB, comme défini dans la spécification, mais qui n’est pas optimal en terme de conservation des aperçus.

        Autre sujet délicat, la gestion de la surimpression à l’intérieur d’Inkscape. A l’heure actuelle, seul Scribus supporte cette fonctionnalité. Le problème spécifique d’Inkscape tient non seulement dans la recommandation SVG mais dans le fait que l’

        export est produit par l’intermédiaire de Cairo qui est seulement RVB. Un grand nombre d’utilisateur d’Inkscape (par exemples de studios de cinéma) trouvent cette problèmatique inutile et il s’agit aussi d’évaleur le besoin réel de tels développements.

        Les documents produits par activDesign servent d’exemple : un vert géré en couleur produit chez le même imprimeur mais en papier différent un résultat différent. Le problème reste donc que toute la chaine de production doit adapter sa production à la démarche au risque de faire perdre tous les bénéfices de ces efforts.

        Adaptative UI

        1. Faut -il garder la fenêtre d’édition de dégradé. Inkscape a en effet introduit des années, l’édition du dégradé directement sur la page est-il utile de conserver une fenêtre primitive que peu de personnes utilisent encore ? Elle offre l’avantage de gérer précisément les stops. Actuellement Jon a travaillé sur un nouvel éditeur qui permette de mieux définir les dégradés et propose une période de test. Certains des cas d’usage sont sur le wiki Create et attendent des retours.

        2. L’énervement que nous donne la nouvelle fonction d’import des images qui demande systématiquement si on incorpore ou non les images. Les habitués utiliseront souvent le même paramètre ce qui rend la fenêtre embarrasante. Quoi à propos d’une fonction de rassemblage comme dans les logiciels de PAO ? Avoir des chemins relatifs est simplement difficilement pour les hébergements communautaire comme deviantart qui ne peuvent agir sur les fichiers sans risque de les modifier profondément et ce qui détruit les capacités de téléchargement des images mises en partage.

        3. Plus profondément, la possibilité de personnaliser son interface, la mémoriser si besoin. Inkscape intègre déjà la possibilité de tagger des tâches et les ressources. Il faut trouver la meilleure interface possible pour le rendre disponible.

        Sparkleshare (O. Kolas)

        Remplace dropbox basé sur git et mono. Logique client serveur avec des serveurs pour tous systèmes y compris iphone et android. Le serveur peut être github (gratuit) ou encore gnome.

        sparkleshare.org, irc.gimpnet.org #sparkleshare

        sur github, s’inscrire et ajouter une clé SSH. on crée alors un projet et on met le nom de dossier plus “sync” dans sparkleshare client. Dans le bouton admin on ajoute les collaborateurs. Echange de fichier ensuite en drag-and-drop. Dès qu’on change une ressource dans ~/SparkleShare/ la synchronisation est auto à l’enregistrement. On a une liste de l’activité.

        Laidout (T. Lechner)

        Laidout intègre un outil qui permet de gérer l’imposition et les plis de manière visuelle par des glissés de souris. dans le même esprint un unwrapper permet de déplier des objets 3D (de Blender par exemle) pour produire l’éclaté qui va servir de base à l’imprimé. Dans laidout, on peut alors créer des pages au dessus d’une image et lier les deux et Laidout s’occupe du montage.

        Xinput mieux intégrer de manière à pouvoir gérer plusieurs souris ou pad ce qui permet de simuler les sensations des écransd de téléphones portables multipoints pour la mise en page (déplacement, rotation, mise à l’échelle, retournement…).

        Instant VIPSMagic (N. Robidoux)

        wrapper de vips et devient le GUI de ImageMagick par le biais de nip2. Peut-être intéressant pour apprendre à utiliser imageMagick et chercher la bonne commande avant d’automatiser la tâche. VISPMagick généère une pile d’objets issus du toolkit qui sont autant de modifications empilées sur l’image avec un aperçu automatique de la pile à chaque changement.

        nips2 can be found at : vips.ecs.soton.ac.uk, libvips.blogspot.com

        How to share (A. Vox)

        Howto (inputs, steps…) =/=knowledge (relations, weighting…) =/=information (bits and bytes)

        le process est à mi-chemin entre les ressources, les outils et le produit. Mais la frontière entre produit ou ressources peut être tenue puisqu’un produit peut-être une ressource. Idem pour un outil.