Voyons si ma boule de cristal a tenu le choc : le bilan de mes prédictions pour 2016.

Nous sommes donc début décembre 2016, et il est temps de faire le bilan de mes prédictions pour l’année 2016. Après tout, j’ai envie de voir à quel point je me suis planté… Ce qui fait donc de moi un non-expert, car je peux me planter et que je reconnais mes erreurs.

J’écrivais mon billet prédiction le lendemain de Noël 2015.

Quel est le résultat ? Voyons, voyons… Premier point :

Selon moi, ce sera l’année du quitte ou double pour au moins une distribution : la Devuan. En effet, alors que je rédige cet article, à moins d’une semaine du nouvel an 2016, toujours aucune nouvelle de la version béta de la première Devuan officielle.

En effet, 2016 a été une année prospère pour le fork idéologico-technique de Debian. Elle a vu l’arrivée d’une première béta en avril 2016, puis d’une deuxième béta fin novembre 2016. La version 1.0 basée sur Jessie est prévue pour 2017, à quelques mois de la sortie de la Debian GNU/Linux Stretch. Pas mal, donc !

Continuer la lecture de « Voyons si ma boule de cristal a tenu le choc : le bilan de mes prédictions pour 2016. »

Humilions-nous en beauté… Mes prédictions pour l’année 2016.

Comme tous les ans, je m’amuse à participer au jeu des prédictions pour l’année à venir. Après un bilan somme toute pas trop mauvais pour les prédictions concerant l’année 2015 (cf le billet bilan de début décembre 2015), reproduisons l’exercice pour 2016. Je tiens à préciser que si l’article est daté du 26 decembre 2015, je l’ai rédigé la veille.

Allons-y gaiement. Commençons par le logiciel libre. Puisque c’est ma zone d’expertise, du moins sur certains plans 🙂

Selon moi, ce sera l’année du quitte ou double pour au moins une distribution : la Devuan. En effet, alors que je rédige cet article, à moins d’une semaine du nouvel an 2016, toujours aucune nouvelle de la version béta de la première Devuan officielle. Comme je l’avais précisé dans le billet bilan :

Pour la Devuan, comme je l’ai exprimé dans un billet récent, elle souffre d’un retard pris suite à la réécriture du système de gestion des périphériques, géré sous linux soit par udev, soit par eudev.

C’est ici le noeud du problème. De plus, ce qui n’aide pas, c’est que la Debian GNU/Linux Wheezy, la dernière en date à proposer par défaut un système d’init à la sysVinit sera supporté au moins jusqu’à mai 2018, par l’équipe LTS qui s’occupe des distributions en fin de vie technique.

Continuer la lecture de « Humilions-nous en beauté… Mes prédictions pour l’année 2016. »

La convergence des écrans, nouvelle « marotte » de l’informatique ?

J’aurais bien employé le terme de mode à la place de celui de marotte. Depuis plusieurs années, après avoir voulu appliqué le principe généreux du « écrire une fois du code, pouvoir le lancer partout », on est passé à la volonté, tout aussi généreuse de vouloir faire du code et des interfaces utilisateurs qui soient utilisables sur les principaux écrans de la vie quotidienne.

En clair, vouloir proposer une interface identique pour les téléphones intelligents, les tablettes tactiles, les ordinateurs classiques, et pour les téléviseurs connectés. Une interface commune pour des écrans allant de 4 à 60 pouces, soit de 10,24 cm à 153,6 cm de diagonale.

Il y a trois acteurs principaux dans ce domaine. Un ancien, Apple, qui depuis la sortie de son iPhone premier du nom en 2007 propose un iOS qui fonctionne aussi bien sur téléphone que sur sa tablette iPad, mais pas sur ordinateur (quoique MacOS-X se « iOS »ise de plus en plus).

Un plus jeune, Microsoft. En 2012, il sort MS-Windows 8 et son interface « Modern UI » qui est clairement pensée pour les tablettes tactiles. Continuation de l’ergonomie introduite avec son OS pour téléphone Windows Phone. D’ailleurs sa tablette tactile maison, avec un clavier qui fait penser à celui du zx80 de Sinclair, n’est pas ce qu’on peut appeler un franc succès.

Vu la réaction à la sortie de l’interface ModernUI, on peut se dire qu’il reste du pain sur la planche.

Continuer la lecture de « La convergence des écrans, nouvelle « marotte » de l’informatique ? »