Intra frame vs Inter frame (JPEG, JPEG 2000, MOTION JPEG, MOTION JPEG 2000) – (MPEG-4 et H.264)

ZÉRO LATENCE

En éliminant la différence de temps entre l’affichage et la source avec une latence GenLock de zéro trame, la série 600 fournit du contenu via un réseau IP modulaire et flexible, comprenant un certain nombre d’attributs utiles utilisés dans les secteurs de la diffusion audiovisuelle en direct.

Evitez la latence de la source à l’écran grâce aux fonctions de conversion et de décodage de ce puissant système de distribution vidéo en temps réel (0,03 milliseconde).

Intro

Mais normalement le vrai 4K ne passe que sur du 18G.

OR : eux ils passent sur du 10G parce que COMPRESSION PIP 

Typiquement, quand il s’agit d’algorithmes de compression, il existe deux classes d’algorithmes de compression : 

Les deux autres formes de compression : 

– Intra frame (JPEG, JPEG 2000, MOTION JPEG, MOTION JPEG 2000 par exemple)

Ce codec prendra cette vidéo, nous allons la décomposer en images, puis analyser et compresser chaque image indépendamment de chacune des autres images.

– Inter frame (MPEG-4 et H.264 par exemple)

Les codecs inter-images codent les images en fonction de l’évolution de celles qui les entourent.  

Intra-Frame Compression

 

 

– Intra frame (JPEG, JPEG 2000, MOTION JPEG, MOTION JPEG 2000 par exemple)

Compression d’une séquence d’images successives, mais les artefacts sont visibles, ainsi qu’une latence de 50 à 100 ms. 

Examine et comprime une image à la fois.Codecs Intraframe : Le plus facile à comprendreLa forme de compression la plus simple est appelée « intraframe », ce qui signifie « une image à la fois ».  Tout simplement une seule image de la vidéo est compressée comme une image fixe, et envoyée.
Encode chaque image sous forme d’image fixe compressée

Les codecs intra-trame, tels que m jpeg 2000, encodent chaque image individuelle en une image fixe compressée, ce qui donne un flux vidéo à latence relativement faible mais à bande passante élevée.
Typiquement quand il s’agit d’algorithmes de compression, il y a deux classes différentes d’algorithmes de compression : la première est ce que nous appelons le codec intra-image qui est très facile à comprendre.
Ce codec va prendre à cette vidéo, nous allons la décomposer en images, puis analyser et compresser chaque image indépendamment de chacune des autres images. 
Fondamentalement, c’est vraiment comme la compression jpeg ou jpeg 2000, mais c’est maintenant fait sur la séquence d’images l’une après l’autre, donc ça s’appelle motion jpeg ou motion jpeg 2000. 
Et c’est là que le problème se pose au sein d’une infrastructure gigabit, en particulier parce que si vous faites ce genre de compression, vous vous retrouvez avec ces artefacts visibles, ils sont peut-être petits, mais ils sont toujours visibles. 
Vous finissez toujours en latence, ouais, c’est peut-être petit, mais c’est typiquement toujours de 50 à 100 millisecondes. 
Et en plus de ça, pour arriver jusqu’à ce paul tibbets, de petits artefacts. 
Et petit c’est si c’est la latence que vous avez une base de fans qui prend des centaines de mégabits donc si vous travaillez sur un réseau d’un gigabit que vous avez vous étouffez maintenant l’utilisateur ip si c’est sur une infrastructure inverse. La solution à cela, bien sûr, et ce qui se passe, c’est que les gens ont commencé à déployer ce système comme deux systèmes indépendants d’infrastructure publicitaire et un système informatique.
Afin d’augmenter la qualité et de diminuer la latence, nous devons baisser la compression et donc consommer plus de bande passante.  C’est ici que nous avons un problème avec un équipement réseau de 1 Gbps.  Les meilleurs produits de compression sub-1Gb ont des défauts de qualité vidéo perceptibles (quoique typiquement petits), créent quelques images de latence, et consomment encore des centaines de mégabits par flux.  Même si nous pouvions vivre avec les problèmes de qualité et de latence, ces centaines de mégabits comptent quand vient le temps de faire converger les réseaux.

Exemple : MJPEG2000
Un compromis qui consomme la totalité d’une canalisation 1G

Latence : Moyen (50-150 millisecondes)Qualité : Moyen (4K est compressé 12:1 ou plus pour maintenir la bande passante en dessous de 1G)Largeur de bande : Moyen à élevé (800+ Mbps pour 4K)Commutateur 1G dédié au trafic AV  

Inter-Frame Compression

– Inter frame (MPEG-4 et H.264 par exemple)Les codecs inter-images, codent les images en fonction de l’évolution de celles qui les entourent.  Ce procédé efficace permet un flux vidéo à faible bande passante, mais avec une très haute latence (centaines de millisecondes).
Examine un groupe d’images et une séquence d’images, puis comprime tout à la fois.

Efficacité de compression extrême
Encodage de plusieurs images ensemble (compression dans le temps et dans l’espace), 
Exemple : h.264, HEVC
Utile, mais ne répond pas à toutes les exigences des cas d’utilisation
Les codecs inter-trames, tels que mpeg-4 et h.264, encodent les images du pool en fonction de ce qui arrive aux images qui les entourent.
Cette méthode plus complexe se traduit généralement par une latence très élevée mais un flux vidéo à faible bande passante. 

Ce sont des codecs très efficaces pour faire quoi que ce soit au lieu de prendre une image du temps et la compresser et l’envoyer. 
Ils prennent ensemble plusieurs trames, ils les analysent toutes ensemble, ils les compriment toutes ensemble, et vous pouvez obtenir une très faible utilisation de la bande passante de cette façon, par exemple ces codeurs conseil comme h.264 et un cbc.

Le problème, c’est que, bien que ce soit un certain temps, il est utile et il comprime le fera, il sera vrai petite largeur de bande de signal le peut tenir dans un 1g et peut être sur le même réseau que l’elle. Il coûte des compromis parce qu’il prend plusieurs images à la fois et l’analyse ensemble, automatiquement maintenant vous créez une latence qui est beaucoup de français s’il vous plaît ces solutions, ce genre de contextes génère toujours la latence qui est mesurée en centaines de millisecondes. 
Maintenant, pour certaines applications, ce n’est pas un problème, mais lorsque vous avez affaire à une application, calculez l’interaction de l’utilisateur avec un ordinateur distant états de vie.
Ce n’est pas la bonne façon de procéder car la latence commence à être trop élevée.
Lorsqu’une compression plus élevée est nécessaire (flux multiples sur un réseau 1G, ou combinaison de votre trafic vidéo avec le trafic de données), les codecs inter-trames sont utiles. Dans ce cas, plusieurs images sont considérées et comprimées ensemble.  Cela fonctionne bien, parce que souvent une image vidéo est très similaire à l’image précédente – alors pourquoi renvoyer les données ?

MPEG (h.264 et ses parents) utilise une arithmétique extrêmement sophistiquée appliquée sur plusieurs images vidéo pour obtenir des taux de compression extrêmement élevés avec une qualité raisonnable, mais une latence considérablement élevée.  L’avantage est que la bande passante est suffisamment faible pour que la vidéo puisse passer par des liaisons sans fil vers des appareils mobiles, qui peuvent également tolérer une certaine dégradation de l’image grâce à des écrans relativement petits.  Bien que ce niveau de latence et de qualité soit acceptable dans certains cas d’utilisation, d’autres cas d’utilisation exigent de meilleures performances.

Latence : Élevée (150-1000 ms) Une haute efficacité signifie attendre quelques images et beaucoup de maths : Cela prend du temps !Qualité : Moyen à bon, pour un gros prix en latence Largeur de bande : faible (10 à 50 Mbps)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *