En quelques années, l’USB-C s’est imposé comme le connecteur universel présent sur de plus en plus d’appareils. Aujourd’hui, on peut utiliser l’USB-C pour charger son smartphone sous Android ou son ultraportable, son casque Bluetooth, sa manette Xbox ou PS5 et beaucoup d’accessoires. Ce connecteur est cependant assez limité par son âge. Finalisé en 2019, l’USB-C avait bien besoin d’une mise à jour, ce que l’USB-IF, chargé du standard, apporte avec la version 2.1 de mai 2021.
Voici les nouveautés de cette version 2.1.
Une charge à 240 W pour les PC portables
L’USB-C offre plusieurs modes de recharge et notamment le fameux 5 V/1,5 A qui permet de charger un smartphone à 7,5 W ou le mode 5V/3A pour le charger à 15 W. Avec le Power Delivery, la norme se permettait d’aller jusqu’à 20 V et 5 A de façon configurable, pour autoriser les systèmes de charge rapide sur les petits appareils, mais aussi et surtout une charge jusqu’à 100 W sur les PC portables.
C’est ce qui permet un système de charge standard sur tous les ultraportables aujourd’hui. On peut, avec le même chargeur et le même câble, remplir la batterie d’un MacBook Air, d’un Dell XPS 13, d’un Asus ZenBook ou d’un Acer Swift pour ne citer qu’eux.
Problèmes : les PC portables plus gourmands, notamment équipés d’une carte graphique, demandent souvent plus de puissance que 100 W. C’est ce que vient résoudre l’USB-C 2.1 en acceptant jusqu’à 48 V/5 A soit 240 W maximum. Pour cela, elle intègre la norme USB Power Delivery Extended Power Range, ou EPR.
À titre d’exemple, cela permettrait de charger l’Asus Strix Scar 17 pouces en USB-C.
Attention, il faut un nouveau câble et un nouveau chargeur
Comme nous l’avons dit, ce mode de recharge utilise l’USB PD EPR qui est une nouvelle norme de recharge plus puissante. Pour fonctionner, le consortium demande explicitement que les câbles compatibles soient bien labellisés « EPR » et qu’ils soient compatibles avec la charge à 5 ampères et 50 volts.
Il faudra donc bien faire attention d’acheter des câbles et des chargeurs certifiés EPR et USB-C 2.1. Ces nouveaux câbles devraient arriver sur le marché dans les mois à venir, plus probablement d’ici au début de l’année 2022.
USB4 et DisplayPort 2.0
La nouvelle version de l’USB-C trace aussi le chemin vers une adoption plus forte de l’USB4 et du DisplayPort 2.0. Le premier a déjà commencé à faire son apparition sur des PC, notamment ceux qui sont équipés de la technologie Thunderbolt 4.
Mais la force de l’USB-C est sa gestion des « alt mode » qui permet d’utiliser des protocoles alternatifs à l’USB comme le DisplayPort. Ce dernier passe désormais à la version 2.0 qui promet en USB-C Alt Mode de gérer trois écrans 8K (7680 x 4320 pixels) à 120 Hz avec un encodage 10 bits (HDR) ou un écran 16K à 60 Hz avec encodage 10 bits.
L’USB-C 2.1 devrait rapidement être adopté par l’industrie. On trouve parmi ses auteurs des firmes comme Intel, Apple, Microsoft, AMD, Dell, DJI, Foxconn, Google, ou encore Lenovo pour n’en citer que quelques-unes.
Téléchargez notre application Android et iOS ! Vous pourrez y lire nos articles, dossiers, et regarder nos dernières vidéos YouTube.
[…] d’éditer les nouvelles règles du standard. Dernière évolution en préparation : le passage à l’USB-C 2.1 et l’arrivée de l’USB 4 basé sur le […]
[…] […]
[…] […]
Tu ne lis pas quand tu fais un achat ?
Reconnaître la technologie utilisé, USB 3, USB 4, TDB, DP etc.. etc..
La seule chose qui manque pour unifier tous mes chargeurs.
reconnaitre ? peux tu développer ?
Autant il a la même forme autant c'est encore plus bordel qu'avant pour reconnaître un câble..
Il pourra toujours oui, car c'est déjà le cas avec la norme actuelle.
Cool changement de câbles et de chargeurs en vue 🙏
Donc l'usb c pourra laisser passer de la diffusion vidéo, ou ai-je certainement mal compris ?
ce sont des telephones, pas des salles de ciné. on ne tire pas les perdreaux a la mitrailleuse
il en va de même pour les oreilles , largement sous les spec annoncées par les constructeurs
arretez de changer les usb ! franchement
Il n'y a pas de différence entre 24 et 60 FPS ? T'as fait ma journée. Démontré par qui ? Preuve ? Lors de la diffusion des premiers films "HFR" (48FPS), les gens ont largement vu une différence a tel point que certains trouvaient le film "bizarre" par habitude aux 24FPS soit disant limite de l'oeil (sauf que si les films sont en 24FPS (arrondi) ça n'a rien a voir avec la perception humaine, c'était une contrainte technique)
Si tu filmes au delà de 24 images seconde, il n'y a pas de différence. Sauf qu'aujourd'hui c'est des images sans flou. Il a été montré que générer du flou est moins coûteux en ressources que d'augmenter le nombre d'images. Dégrader l'image pour mieux voir, c'est pas vendeur ! D'autre part, le cerveau se facalise sur certaines partie de l'image pour l'analyser... On a flouté les parties non analysées par le cerveau eyetracking et le spectateur ne voit pas la différence. La pause sur image est très moche... On passe notre temps à regarder de l'arrêt sur image selon les marketeurs ! Beaucoup de travaux ont été réalisés sur les performances physiologiques mais personne n'en tient compte. Dernièrement, Apple se met à l'audio sans compression, marketé comme de la HiFi (distorsion <1%, des pseudo-pertes donc) et diffusé très majoritairement sur des home pods pas du tout HiFi ! Ou écouté dans les transports avec un bruit ambiant bien supérieur au 1%... Amusant Apple se fait une image luxe, hifi, écolo... en toc
Retina est une résolution à une distance. Un grand écran qui est très loin n'a pas besoin de 16k La plus haute résolution sera celle sur les lunettes.
Fut un temps on nous disait que l'oeil humain ne voit pas plus que 24FPS ...
Dans certaines régions la recharge 240w sert également de chauffage d'appoint 🤣
[…] Our Reference […]
J'imagine que le but n'est pas d'avoir un écran 16k sur son bureau, mais soit de gérer plusieurs écrans 4k, soit de gérer un écran 16k de très grandes dimensions (affichage public, mur interactif, etc.).
Cette histoire de l'oeil humain, je m'en méfie. On nous avait déjà vendu ça à l'époque des écrans Retina. Je te garantie pourtant que désormais, les premiers écrans Retina sont ridicules à côté des plus hautes résolutions et on distingue clairement les pixels dessus. Perso j'arrive à distinguer les pixels mon écran 4K d'ailleurs. Et puis tout ça, ça dépend aussi de la taille de l'écran évidemment...
L'oeil humain n'a au total que 6 millions de capteurs, 4 dans la partie centrale fovéa et 2 pour la vision périphérique. Au delà de 4k, c'est juste de la confiture aux cochons. Le marketing et ses imbécillités... On doit certainement penser à équiper les nids d'aigles en TV. Mais ne serait ce pas de la maltraitance animale ? Steve Jobs avait essayé de populariser le concept de Retina, résolution au delà de laquelle il ne sert a rien d'aller plus loin... C'est déjà oublié.
Parce que ça n'existe pas encore. Mais sinon, pour répondre au troll : une norme doit être en avance sur son temps et compatible avec le matériel très haut de gamme des pros autant que possible.
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix