The Wayback Machine - https://web.archive.org/web/20221028212113/https://baike.sogou.com/kexue/d10016.htm

H.264 / MPEG-4 AVC

编辑

H.264或MPEG-4 Part 10高级视频编码(MPEG-4 AVC)是一种面向块的基于运动补偿的视频压缩标准。截至2014年,它是最常用的视频内容记录、压缩和分发格式之一。[1]它支持高达8192×4320的分辨率,包括8K UHD。[2]

H.264/AVC项目的目的是创建一个能够以比以前的标准低得多的比特率(即MPEG-2、H.263或MPEG-4 Part 2比特率的一半或更低),提供良好视频质量的标准,而不会过多地增加设计的复杂性,以致于实现起来不切实际或过于昂贵。另一个目标是提供足够的灵活性,使该标准适用于包括高、低比特率、高、低分辨率视频、广播、DVD存储、RTP/IP网络包和ITU-T多媒体电话系统在内的各种网络和系统上的一系列应用。H.264标准可以被看作是一个由许多不同配置文件组成的“标准家族”。特定的解码器解码至少一个,但不必要是所有的配置文件。解码器规范描述了哪些配置文件可以解码。H.264通常用于有损压缩,尽管也有可能在有损编码图像中创建真正的无损编码区域,或者支持整个编码都是无损的罕见案例。

H.264是由ITU-T视频编码专家组(VCEG)和ISO/IECJTC1运动图像专家组(MPEG)共同开发的。该项目的合作伙伴被称为联合视频小组(JVT)。ITU-T H. 264标准和ISO/IEC MPEG-4AVC 标准(正式名称为ISO/IEC 14496-10–MPEG-4Part 10,高级视频编码)共同维护,使其具有相同的技术内容。标准第一版的最后起草工作于2003年5月完成,随后的版本中增加了对其能力的各种扩展。高效视频编码(HEVC),又名H.265和MPEG-HPart 2是由相同组织开发的H.264/MPEG-4 AVC的后继,而早期的标准仍然被普遍使用。

H.264也许或许是最著名的蓝光光盘视频编码标准之一;所有蓝光光盘播放器都必须能够解码H.264。它还广泛用于流媒体互联网资源,如来自Vimeo、YouTube和iTunes Store的视频,如Adobe Flash Player和微软Silverlight等网络软件,以及各种地面HDTV广播(ATSC、ISDB、DVB-T或DVB-T2)、有线电视(DVB-C)和卫星电视(DVB-S和DVB-S2)。

H.264受各团体拥有的专利保护。涵盖H.264所必需的大多数(但不是全部)专利的许可证由专利池MPEG LA管理[3]。H.264专利技术的商业使用要求向MPEG LA和其他专利所有者支付版税。MPEG LA已经允许免费使用H.264技术对终端用户进行免费的网络视频流传输,思科系统代表二进制文件用户为其开源H.264编码器向MPEG LA支付版税。

1 命名编辑

H.264的名称遵循ITU-T的命名惯例,其中该标准是VCEG视频编码标准H.26x系列的成员;MPEG-4AVC的名称与ISO/IEC MPEG中的命名约定有关,其中该标准是ISO/IEC 14496的第10部分,这是一套被称为MPEG-4的标准。该标准是由VCEG和MPEG公司合作开发的,此前在ITU-T作为一个名为H.26L的VCEG项目进行了开发工作。因此,通常指名称如H.264/AVC、AVC/H.264、H.264/MPEG-4 AVC或MPEG-4/H.264 AVC的标准,以强调其共通性。有时,它也被称为“JVT编解码器”,指的是开发它的联合视频团队(JVT)组织。(这种伙伴关系和多重命名并不少见。例如,被大家熟知的MPEG-2的视频压缩标准也产生于MPEG和ITU-T之间的伙伴关系,其中MPEG-2视频被ITU-T社区称为H.262[4])。一些软件程序(例如VLC媒体播放器)在内部将该标准识别为AVC1。

2 历史编辑

1998年初,视频编码专家组(VCEG-ITU-T SG16 Q. 6)就一个名为H.26L的项目发出了征求建议书,目标是将与其他任何已经存在的各种应用相比编码效率翻倍(这意味着在给定保真度水平下所需的比特率减半)。VCEG由Gary Sullivan(微软,前身是美国PictureTel公司)担任主席。新标准的第一份设计草案于1999年8月获得通过。2000年,Thomas Wiegand (德国Heinrich Hertz研究所)成为VCEG的联合主席。

2001年12月,VCEG和运动图像专家组(MPEG-ISO/IEC JTC 1/SC 29/WG 11)成立了一个联合视频小组(JVT),其任务是最终确定视频编码标准。2003年3月迎来了规范的正式批准。[5]那时,包括现在,JVT由Gary Sullivan、Thomas Wiegand, 和 Ajay Luthra (美国摩托罗拉:后来的Arris,美国)担任主席。2004年6月,Fidelity系列扩展(FRExt)项目最终确定。从2005年1月到2007年11月,JVT致力于通过一个称为可伸缩视频编码的附件(G)对H.264/AVC的可伸缩性进行拓展。Jens-Rainer Ohm (德国亚琛大学)扩展了JVT管理团队。2006年7月至2009年11月,JVT致力于多视角视频编码(MVC),这是H.264/AVC向自由视点电视和3D电视的延伸。这项工作包括开发标准的两个标准的新轮廓:多视角高轮廓和立体高轮廓。

H.264/AVC第一版的标准化工作于2003年5月完成。在第一个扩展原始标准的项目中,JVT随后开发了所谓的Fidelity Range Extensions富达范围扩展(FRExt)。这些扩展通过支持更高的采样位深度精度和更高分辨率的颜色信息使更高质量的视频编码成为可能,包括称为Y’CbCr 4:2:2(=YUV4:2:2)和Y’CbCr 4:4:4的采样结构。Fidelity Range Extensions项目还包括其他几个特性,例如4×4和8×8整数变换之间的自适应切换、编码器指定的基于感知的量化加权矩阵、高效的图像间无损编码以及对附加色彩空间的支持。Fidelity Range Extensions富达系列扩展的设计工作于2004年7月完成,起草工作于2004年9月完成。

该标准最近的进一步扩展包括增加了另外五个主要面向专业应用新轮廓,添加扩展色域的色彩空间支持,定义额外的纵横比指示器,定义两种额外类型的“补充增强信息”(过滤后提示和色调映射),并弃用之前工业反馈指出应当被采用不同设计的FRExt文件(高4:4:4配置文件)。

标准的下一个主要特性是可伸缩视频编码(SVC)。在H.264/AVC的附件G中规定,SVC允许构造包含也符合标准的子比特流的比特流,包括一个被称为“基本层”的比特流,该比特流可以由不支持SVC的H.264/AVC编解码器解码。对于时间比特流可伸缩性(即,存在时间采样率小于主比特流的子比特流),当导出子比特流时,完整的访问单元被从比特流中移除。在这种情况下,相应地构造比特流中的高级语法和帧间预测参考图片。另一方面,为了空间和质量比特流的可伸缩性(即,存在空间分辨率/质量低于主比特流的子比特流),当导出子比特流时,从比特流中移除NAL(网络抽象层)。在这种情况下,层间预测(即,从较低空间分辨率/质量信号的数据中预测较高空间分辨率/质量信号)通常用于高效编码。可扩展视频编码扩展于2007年11月完成。

标准的下一个主要特性是多视图视频编码(MVC)。在H.264/AVC的附录H中规定,MVC允许构造代表一个视频场景的多个视图的比特流。这种功能的一个重要例子是立体3D视频编码。在MVC工作中开发了两个概要文件:多视图高概要文件支持任意数量的视图,立体高概要文件是专门为双视图立体视频设计的。多视图视频编码扩展于2009年11月完成。

2.1 版本

H.264/AVC标准的版本包括以下已完成的修订、勘误表和修正案(日期是ITU-T的最终批准日期,而ISO/IEC的最终“国际标准”批准日期略有不同,在大多数情况下比ITU-T的批准日期稍晚)。每个版本都代表与集成到文本中的下一个较低版本有关的更改。

  • 版本1(版本1): (2003年5月30日)包含基线、主体和扩展配置文件的H.264/AVC的首次批准版本。[6]
  • 版本2(版本1.1): (2004年5月7日)包含各种微小更正的勘误表。[7]
  • 版本3(版本2):(2005年3月1日)包含第一修正案的H.264/AVC的主要增补,提供高保真范围扩展(FRExt),包含高、高10、高4:2:2和高4:4:4配置文件。[8]
  • 版本4(版本2.1):(2005年9月13日)勘误表,其中包含各种小的更正并添加了三个长宽比指示器[9]
  • 版本5(版本2.2):(2006年6月13日)修改,包括删除先前的高4:4:4配置文件(作为更正在ISO/IEC中处理)。[10]
  • 版本6(版本2.2):(2006年6月13日)修订版,包括扩展色域色彩空间支持等小的扩展(与上述ISO/IEC纵横比指示器捆绑在一起)。[10]
  • 版本7(版本2.3):(2007年4月6日)修订版,增加了高4:4:4预测性和四个纯内配置文件(高10内配置文件、高4:2:2内配置文件、高4:4:4内配置文件和CAVLC 4:4:4内配置文件)。[11]
  • 第8版(第3版):(2007年11月22日)包含可伸缩视频编码(SVC)修正案的H.264/AVC的主要补充,该修正案包含可伸缩基线、可伸缩高位和可伸缩高位帧内配置文件。[12]
  • 版本9(版本3.1):(2009年1月13日)包含微小更正的勘误表。[13]
  • 第10版(第4版):(2009年3月16日)修订版,包含新配置文件(受限基线配置文件)的定义,该配置文件仅包含各种先前指定的配置文件中支持的通用功能子集。[14]
  • 第11版(第4版):(2009年3月16日)对H.264/AVC的主要补充,包含多视图视频编码(MVC)扩展的修正,包括多视图高配置文件。[14]
  • 第12版(第5版):(2010年3月9日)修订版,包含支持隔行编码工具的双视图视频编码的新MVC配置文件(立体声高配置文件)的定义,并指定额外附加的SEI消息(帧打包安排SEI消息)。[15]
  • 第13版(第5版):(2010年3月9日)包含微小更正的勘误表。[15]
  • 第14版(第6版):(2011年6月29日)修正案规定了一个新的级别(级别5.2),以每秒最大宏块的形式支持更高的处理速率,以及一个仅支持先前指定的高配置文件的帧编码工具的新配置文件(渐进高配置文件)。[16]
  • 第15版(第6版):(2011年6月29日)包含微小更正的勘误表。[16]
  • 第16版(第7版):(2012年1月13日)修正案包含三个主要用于实时通信应用的新配置文件的定义:约束高、可伸缩约束基线和可伸缩约束高配置文件。[17]
  • 第17版(第8版):(2013年4月13日)带有额外SEI消息指示器的修正案。[18]
  • 第18版(第8版):(2013年4月13日)修正案,规定3D立体视频深度图数据的编码,包括多视角深度高配置文件。[18]
  • 版本19(版本8):(2013年4月13日)更正多视图视频的子比特流提取过程中的错误。[18]
  • 第20版(第8版):(2013年4月13日)修订版,在色调映射信息SEI消息中指定额外的色彩空间标识符(包括针对UHDTVITUR-R建议的BT.2020的支持)和额外的型号类型。[18]
  • 第21版(第9版):(2014年2月13日)修订版,指定增强多视角深度高配置文件。[19]
  • 第22版(第9版):(2014年2月13日)修订版,指定3D立体视频的多分辨率帧兼容(MFC)增强、MFC高配置文件和细微校正。[19]
  • 第23版(第10版):(2016年2月13日)修订版,以指定带有深度图的MFC立体视频、MFC深度高配置文件、母版显示颜色卷SEI消息以及附加的与颜色相关的视频可用性信息码点标识符。[20]
  • 第24版(第11版):(2016年10月14日)修正案修订版,规定支持更大图片尺寸的解码器能力的附加级别(级别6、6.1和6.2)、绿色元数据SEI消息、可替代深度信息SEI消息以及附加的与颜色相关的视频可用性信息码点标识符。[21]
  • 第25版(第12版):(2017年4月13日)修订版,以指定累进高10个配置文件、混合对数伽马(HLG)和其他与颜色相关的VUI码点和SEI消息。

3 应用程序编辑

H.264视频格式的应用范围非常广泛,涵盖了从低比特率互联网流应用到HDTV广播和几乎无损编码的数字电影应用的几乎所有形式的数字压缩视频。据报道,与MPEG-2Part 2相比,使用H.264可以节省50%或更多的比特率。例如,据报道,H.264的数字卫星电视质量与当前的MPEG-2实现相同,H. 264的比特率不到一半,当前的MPEG-2实现工作在大约3.5兆比特/秒,H.264只有1.5兆比特/秒。索尼声称9兆比特/秒的录像模式和使用将近18-25兆比特/秒的HDV格式的图像质量是相同的。[22]

为了确保兼容和无问题地采用H.264/AVC,许多标准机构已经对其视频相关标准进行了修改或添加,以便这些标准的用户可以采用H.264/AVC。Blu-ray Disc格式和现已停产的HD DVD格式都包括作为三种强制性视频压缩格式之一的H.264/AVC高清格式。数字视频广播项目(DVB)于2004年底批准将H.264/AVC用于广播电视。

美国高级电视系统委员会(ATSC)标准机构于2008年7月批准将H.264/AVC用于广播电视,尽管该标准尚未用于美国境内的固定ATSC广播。[23][24] 它也已被批准与最新的ATSC-M/H(移动/手持设备)标准一起使用,使用H. 264版本的AVC和SVC部分。[25]

CCTV(闭路电视)和视频监控市场已经将这项技术纳入许多产品。

许多常见的DSLRs使用包装在QuickTime MOV容器中的H.264视频作为本机录制格式。

3.1 派生格式

AVCHD是索尼和松下设计的高清录制格式,该格式使用H.264(符合H.264,同时增加了附加的特定应用特性和限制)。

AVC-Intra是松下开发的一种仅帧内压缩的格式。

XAVC是索尼公司设计的一种录制格式,该格式使用的是H.264/MPEG-4 AVC的5.2级,这是该视频标准支持的最高级别。[26][27]XAVC能够以高达每秒60帧(fps)的速度支持4K分辨率(4096 × 2160和3840 × 2160)。[26][27]索尼宣布支持XAVC的相机包括两台CineAlta相机——索尼PMW F55和索尼PMW F5[28]。索尼PMW-F55能够分别以300兆比特/秒30 fps4K分辨率和100兆比特/秒30 fps 2K记录XAVC。[29]XAVC能够以60 fps600兆比特/秒以4:2:2的色度二次采样来记录4K的分辨率。[30][31]

4 设计编辑

4.1 特征

H.264的方块图

H.264/AVC/MPEG-4Part 10包含许多新特性,使其能够比旧标准更有效地压缩视频,并为应用于各种网络环境提供更大的灵活性。特别是,一些这样的关键特征包括:

  • 多画面画面间预测包括以下特征:
    • 以比过去标准更灵活的方式使用以前编码的图片作为参考,在某些情况下允许使用多达16个参考帧(或在隔行编码的情况下32个参考区)。在支持非IDRframes的配置文件中,大多数级别指定应该有足够的缓冲,以允许在最大分辨率下至少有4或5个参考帧。这与以前的标准是相悖的,以前的标准通常是一个限制;或者,在传统的“B pictures”(b帧)的情况下,限制数量是两个。这一特殊功能通常允许在大多数场景中比特率和质量的适度提高。但是在某些类型的场景中,例如那些具有重复运动或前后场景切换或未覆盖背景区域的场景,它允许在保持清晰度的同时显著降低比特率。
    • 可变块大小运动补偿(VBSMC),块大小大至16×16,小至4×4,实现运动区域的精确分割。支持的luma预测块大小包括16×16、16×8、8×16、8×8、8×4、4×8和4×4,其中许多可以一起用于单个宏块。根据所使用的色度子采样,色度预测块的大小相应较小。
    • 在由16个4×4分区构成的B宏块的情况下,每个宏块使用多个运动矢量(每个分区一个或两个)的能力,其最大值为32。每个8×8或更大分割区域的运动矢量可以指向不同的参考图像。
    • 在B帧中使用任何宏块类型(包括I宏块)的能力,使得使用B帧时编码效率更高。MPEG-4 ASP明显忽略了这一特性。
    • 用于推导半像素luma样本预测的六抽头滤波,用于更清晰的子像素运动补偿。四分之一像素运动是通过半像素值的线性插值得到的,以节省处理能力。
    • 运动补偿的四分之一像素精度,能够精确描述运动区域的位移。对于色度,分辨率通常在垂直和水平方向上减半(见4:2:0),因此色度的运动补偿使用八分之一色度像素网格单位。
    • 加权预测允许编码器在执行运动补偿时指定缩放和偏移的使用,并在特殊情况下(如渐变到黑色、淡入和交叉渐变)提供显著的性能优势。这包括对B帧的隐式加权预测和对P帧的显式加权预测。
  • 来自相邻块边缘的空间预测,用于“帧内”编码,而不是仅在MPEG-2Part 2中发现的“DC”预测,以及在H.263v2和MPEG-4Part 2中发现的变换系数预测。这包括luma预测块大小为16×16、8×8和4×4(其中每个宏块中只能使用一种类型)。
  • 无损宏块编码特征包括:
    • 一种无损的“PCM宏块”表示模式,其中视频数据样本被直接表示,允许特定区域的完美表示,并允许对每个宏块的编码数据量进行严格限制。
    • 一种增强的无损宏块表示模式允许特定区域的完美表示,同时通常使用比PCM模式少得多的比特。
  • 灵活的隔行扫描视频编码功能,包括:
    • 宏块自适应帧场(MBAFF)编码,对编码为帧的图像使用宏块对结构,允许场模式下的16×16宏块(与MPEG-2相比,在MPEG-2中,编码为帧的图像中的场模式处理导致16×8半宏块的处理)。
    • 图像自适应帧场编码(PAFF或PicAFF)允许自由选择图像的混合编码,或者作为完整帧,两个场组合在一起进行编码,或者作为单独的单个场进行编码。
  • 新的转换设计功能,包括:
    • 一种精确匹配的整数4×4空间块变换,允许精确放置残留信号,几乎没有以前编解码器设计中常见的“ringing”。这种设计在概念上类似于众所周知的由艾哈迈德(N. Ahmed)、纳塔拉詹(T.Natarajan)和拉奥(K.R.Rao)于1974年发现的离散余弦变换(DCT),该变换是离散余弦变换中的引用1。然而,它被简化并能提供精确指定的解码。
    • 一种精确匹配的整数8×8空间块变换,允许比4×4变换更有效地压缩高度相关的区域。这种设计在概念上类似于众所周知的离散余弦变换DCT,但经过简化,可以提供精确的解码。
    • 整数变换操作的4×4和8×8变换块大小之间的自适应编码器选择。
    • 应用于色度DC系数(在一种特殊情况下也包括luma)的主空间变换的“DC”系数执行二次Hadamard变换,以在平滑区域获得更大的压缩。
  • 一种量化设计,包括:
    • 对数步长控制以便于编码器的比特率管理和简化的反量化缩放
    • 编码器为基于感知的量化优化选择的频率定制量化缩放矩阵
  • 一种环内去块滤波器,有助于防止其他基于离散余弦变换DCT的图像压缩技术常见的块假象,从而获得更好的视觉外观和压缩效率。
  • l一种熵编码设计,包括:
    • 上下文自适应二进制算术编码(CABAC),一种在已知给定上下文中语法元素概率的情况下,无损压缩视频流中语法元素的算法。CABAC能比CAVLC更有效地压缩数据,但是需要更多的处理来解码。
    • 上下文自适应长度编码(CAVLC),它是对量化变换系数值进行编码的CABAC的低复杂度替代方案。虽然CAVLC具备比更低的复杂性CABAC,但它比其他现有设计中通常用来编码系数的方法更加精细和高效。
    • 一种用于许多非CABAC或CAVLC编码的语法元素的常见的简单且高度结构化的可变长度编码(VLC)技术,称为Exponential-Golomb编码(或Exp-Golomb编码)。

  • 损失恢复能力特征包括:
    • 网络抽象层(NAL)定义允许在许多网络环境中使用相同的视频语法。H.264的一个非常基本的设计概念是生成独立的数据包,以消除类似于MPEG-4的报头扩展码(HEC)中的报头重复。[32]这是通过从媒体流中分离与一个以上片段相关的信息来实现的。高级参数的组合称为参数集。[32]H. 264规范包括两种类型的参数集:序列参数集(SPS)和图像参数集(PPS)。活跃序列参数集在整个编码视频序列中保持不变,并且活跃图像参数集在编码图像中保持不变。序列和图像参数集结构包含诸如图像大小、采用的可选编码模式和宏块到切片组映射等的信息。[32]
    • 灵活宏块排序(FMO),也称为切片组和任意切片排序(ASO),该类排序用于重构图像中基本区域(宏块)表示的排序的技术。FMO和ASO通常被视为误差/损耗鲁棒性特征,也可用于其他目的。
    • 数据分区(DP),一种提供将更重要和不太重要的语法元素分成不同数据包的功能,支持不等错误保护(UEP)和其他类型的错误/丢失鲁棒性改进方面的应用。
    • 冗余切片(RS)是一种错误/丢失鲁棒性特征,该特性允许编码器发送图像区域的额外表示(通常保真度较低),如果主要表示损坏或丢失,则可以使用该表示。
    • 帧编号是一种允许创建“子序列”的功能,该功能通过在其他图像之间可选地包含额外的图像,以及检测和隐藏由于网络分组丢失或信道错误而可能发生的整个图像的丢失,来实现时间可伸缩性。
  • 切换片,称为SP片和SI片,允许编码器引导解码器跳转到正在进行的视频流,用于视频流比特率切换和“特技模式”操作的目的。当解码器使用SP/SI特性跳转到视频流的中间时,尽管在切换之前使用不同的图片或根本没有图片作为参考,但它可以获得与视频流中该位置的解码图片的精确匹配。
  • 一种简单的用于防止意外模拟起始码的自动过程,起始码是编码数据中的特殊位序列,该序列允许随机访问比特流,并在可能失去字节同步的系统中恢复字节对齐。
  • 补充增强信息(SEI)和视频可用性信息(VUI),它们是可以插入比特流中的额外信息,以增强视频用于多种目的的使用。包含3D排列的SEI FPA(框架包装排列)消息:

  • 0:棋盘:左右像素交替
  • 1:列交替:左和右按列交错。
  • 2:行交替:左和右逐行交错。
  • 3:并排:L为左,R为右。
  • 4:顶部底部:L在顶部,R在底部。
  • 5:帧交替:每帧一个视图。

  • 辅助图片,可用于阿尔法合成等目的。
  • 支持单色(4:0:0)、4:2:0、4:2:2和4:4:4色度子采样(取决于所选配置文件)。
  • 支持每个样本8至14位的样本位深度精度(取决于所选配置文件)。
  • 将单个彩色平面编码为具有自己的切片结构、宏块模式、运动矢量等不同图像的能力,允许编码器设计为具有简单的并行化结构(仅支持三个4:4:4容量的配置文件)。
  • 画面顺序计数,一种用于保持解码画面中画面的顺序和样本值与定时信息隔离的功能,允许定时信息由系统单独携带和控制/改变,而不影响解码画面内容。

这些技术和其他一些技术一起帮助H.264在各种应用环境中,比任何现有标准都表现得更好。H. 264通常可以比MPEG-2视频表现得更好——通常以一半或更低的比特率获得相同的质量,尤其是在高比特率和高分辨率的情况下。[33]

像其他ISO/IEC MPEG视频标准一样,H.264/AVC有一个可以自由下载的参考软件实现。[34]其主要目的是举例说明H.264/AVC特性,而不是作为一个有用的应用程序本身。运动图像专家组也正在进行一些参考硬件设计工作。上述是H.264/AVC的完整特性,涵盖H.264的所有配置文件。编解码器的配置文件是该编解码器的一组特性,被识别为满足预期应用的特定规范集。这意味着某些配置文件不支持列出的许多功能。H.264/AVC的各种配置文件将在下一节讨论。

4.2 配置文件

该标准定义了一组针对特定应用程序类别的功能,称为概要文件。这些被声明为配置文件代码(profile_idc)和编码器中应用的一组约束。这允许解码器识别解码该特定流的要求。

不可扩展2D视频应用的配置文件包括以下内容:

约束基线配置文件(CBP,66,对应约束集1)
这种配置文件主要用于低成本应用,最常用于视频会议和移动应用。它对应于基线配置文件、主配置文件和高配置文件之间共有的特征子集。
基线配置文件(BP,66)
该配置文件主要用于需要额外数据丢失鲁棒性的低成本应用,在一些视频会议和移动应用中使用。此配置文件包括受约束基线配置文件支持的所有功能,以及三个可用于损失鲁棒性(或用于其他目的,如低延迟多点视频流合成)的附加功能。自2009年受约束基线配置文件定义以来,该配置文件的重要性有所减弱。所有受约束的基线配置文件比特流也被认为是基线配置文件比特流,因为这两个配置文件共享相同的配置文件标识符代码值。
扩展配置文件(XP,88)
作为流式视频配置文件,该配置文件具有相对较高的压缩能力和一些额外的增强对数据丢失和服务器流切换的鲁棒性的技巧。
主要配置文件(MP,77)
此配置文件用于标准清晰度数字电视广播,这些广播使用DVB标准中定义的MPEG-4格式。然而,它并不用于高清晰度电视广播,因为当2004年为该应用开发“高配置文件”时,这种配置文件的重要性逐渐减弱。
高配置文件(HiP,100)
广播和光盘存储应用的主要配置文件,尤其是高清电视应用(例如,这是蓝光光盘存储格式和DVB高清电视广播服务采用的配置文件)。
渐进配置文件(PHiP,100,对应约束集4)
类似于高配置文件,但是不支持场编码特征。
受约束的高配置文件(带有约束集4和5的100)
与渐进式高配置文件相似,但不支持B(双预测)切片。
高10配置文件(Hi10P,110)
除了典型的主流消费产品功能之外,这个配置文件建立在高配置文件的基础上,增加了对每个解码图像精度样本高达10位的支持。
高4:2:2配置文件(Hi422P,122)
高4:4:4预测配置文件(Hi444PP,244)
此配置文件建立在高4:2:2配置文件的基础上,支持最高4:4:4色度采样,每个采样最多14位,此外还支持高效无损区域编码和将每个图片编码为三个独立的颜色平面。

对于摄像机、编辑和专业应用,该标准包含四个附加的仅帧内配置文件,它们被定义为其他相应配置文件的简单子集。主要用于专业(例如,相机和编辑系统)应用的配置文件如下:

高10帧内配置文件(110,约束集3)
高10配置文件仅限于内部使用。
高4:2:2帧内轮廓(122,约束集3): 高4:2:2配置文件限制于内部使用。
高4:4:4帧内轮廓(244,约束集3): 高4:4:4配置文件限制于内部使用。
CAVLC 4:4:4帧内配置文件(44): :高4::4:4配置文件受限于全帧内使用和CAVLC熵编码(即不支持CABAC)。

作为可伸缩视频编码(SVC)扩展的结果,该标准包含五个额外的可伸缩配置文件,它们被定义为基础层的H.264/AVC配置文件(由可伸缩配置文件名称中的第二个单词标识)和实现可伸缩扩展的工具的组合:

可扩展基线配置文件(83)
该配置文件主要针对视频会议、移动和监控应用,建立在基础层(比特流的子集)必须符合的受限基线配置文件之上。对于可伸缩性工具,启用了可用工具的子集。
可缩放的受约束基线配置文件(83,约束集5)
可扩展基线配置文件的子集,主要用于实时通信应用。
可扩展的高配置文件(86)
该配置文件主要针对广播和流媒体应用,建立在基础层必须符合的H.264/AVC高配置文件之上。
可缩放的受限高轮廓(86,约束集5)
可扩展高级配置文件的子集,主要用于实时通信应用。
可缩放的高帧内配置文件(86,约束集3)
该配置文件主要针对生产应用程序,是限制在全内部使用的可扩展高配置文件。 作为多视图视频编码(MVC)扩展的结果,该标准包含两个多视图配置文件:

立体高配置文件(128)
该配置文件以两视图立体3D视频为目标,并将高配置文件的工具与MVC扩展的视图间预测能力相结合。
多视角高配置文件(118)
该配置文件支持使用图像间(时间)和MVC多视图间预测的两个或多个视图,但不支持场图像和宏块自适应帧场编码。
多视角深度高配置文件(138)

特定配置文件中的功能支持 

特征 CBP BP XP MP ProHiP HiP Hi10P Hi422P Hi444PP
位深度(每个样本) 8 8 8 8 8 8 8 to 10 8 to 10 8 to 14
色度格式 4:2:0

 
4:2:0

 
4:2:0

 
4:2:0

 
4:2:0

 
4:2:0

 
4:2:0

 
4:2:0/
4:2:2
 
4:2:0/
4:2:2/
4:4:4
灵活的宏块排序(FMO)
任意切片排序(ASO)
冗余切片(RS)
数据分区
SI和SP切片
隔行扫描编码(PicAFF,MBAFF)
B切片
CABAC熵编码
4:0:0(单色)
8×8 vs. 4×4 变换适应性
量化缩放矩阵
单独的Cb和Cr QP控制
单独的彩色平面编码
预测无损编码

4.3 水平

该术语在标准中使用时,“级别”是一组指定的约束条件,表示配置文件所需的解码器性能程度。例如,配置文件中的支持级别指定解码器可以使用的最大图像分辨率、帧速率和比特率。符合给定级别的解码器必须能够为该级别和所有较低级别编码的所有比特流解码。

具有最大属性值的级别
水平 最大解码速度

以宏块/秒为单位

宏块中

最大帧尺寸

最大视频比特率

以千位/秒为单位

对于视频编码层(VCL)

(约束基线,基线,

扩展和主配置文件)

高分辨率示例

@最高帧速率

(最大存储帧)

切换其他详细信息

1 1,485 99 64 128×96@30.9 (8)176×144@15.0 (4)
1b 1,485 99 128 128×96@30.9 (8)176×144@15.0 (4)
1.1 3,000 396 192 176×144@30.3 (9)
320×240@10.0 (3)352×288@7.5 (2)
1.2 6,000 396 384 320×240@20.0 (7)352×288@15.2 (6)
1.3 11,880 396 768 320×240@36.0 (7)352×288@30.0 (6)
2 11,880 396 2,000 320×240@36.0 (7)352×288@30.0 (6)
2.1 19,800 792 4,000 352×480@30.0 (7)352×576@25.0 (6)
2.2 20,250 1,620 4,000 352×480@30.7 (12)
352×576@25.6 (10)
720×480@15.0 (6)720×576@12.5 (5)
3 40,500 1,620 10,000 352×480@61.4 (12)
352×576@51.1 (10)
720×480@30.0 (6)720×576@25.0 (5)
3.1 108,000 3,600 14,000 720×480@80.0 (13)
720×576@66.7 (11)1,280×720@30.0 (5)
3.2 216,000 5,120 20,000 1,280×720@60.0 (5)1,280×1,024@42.2 (4)
4 245,760 8,192 20,000 1,280×720@68.3 (9)
1,920×1,080@30.1 (4)2,048×1,024@30.0 (4)
4.1 245,760 8,192 50,000 1,280×720@68.3 (9)
1,920×1,080@30.1 (4)2,048×1,024@30.0 (4)
4.2 522,240 8,704 50,000 1,280×720@145.1 (9)
1,920×1,080@64.0 (4)2,048×1,080@60.0 (4)
5 589,824 22,080 135,000 1,920×1,080@72.3 (13)
2,048×1,024@72.0 (13)
2,048×1,080@67.8 (12)
2,560×1,920@30.7 (5)3,672×1,536@26.7 (5)
5.1 983,040 36,864 240,000 1,920×1,080@120.5 (16)
2,560×1,920@51.2 (9)
3,840×2,160@31.7 (5)
4,096×2,048@30.0 (5)
4,096×2,160@28.5 (5)4,096×2,304@26.7 (5)
5.2 2,073,600 36,864 240,000 1,920×1,080@172.0 (16)
2,560×1,920@108.0 (9)
3,840×2,160@66.8 (5)
4,096×2,048@63.3 (5)
4,096×2,160@60.0 (5)4,096×2,304@56.3 (5)
6 4,177,920 139,264 240,000 3,840×2,160@128.9 (16)
7,680×4,320@32.2 (5)8,192×4,320@30.2 (5)
6.1 8,355,840 139,264 480,000 3,840×2,160@257.9 (16)
7,680×4,320@64.5 (5)8,192×4,320@60.4 (5)
6.2 16,711,680 139,264 800,000 3,840×2,160@300.0 (16)
7,680×4,320@128.9 (5)8,192×4,320@120.9 (5)

高配置文件的最大比特率是约束基线、基线、扩展配置文件和主配置文件的1.25倍;Hi10P 的3倍,Hi 422 P/Hi 444 P 的4倍。

亮度采样数为16×16=256,是宏块数的256倍(每秒亮度采样数为每秒宏块数的256倍)。

4.4 解码图像缓冲       

先前编码的图像被H.264/AVC编码器用来提供其他图像中样本值的预测。这使得编码器能够就编码给定图像的最佳方式做出有效决策。对解码器而言,这样的图像存储在虚拟解码图像缓冲器(DPB)中。如上表右栏括号中所示,DPB的最大容量以帧(或场对)为单位可以计算如下:

Dpb容量=最小值(floor(最大DpbMbs / (PicWidthInMbs *FrameHeightlnMbs),16)

其中MaxDpbMbs是下表中提供的作为级数函数的常数值,PicWidthInMbs和FrameHeightInMbs是编码视频数据的图像宽度和帧高度,以宏块为单位表示(四舍五入为整数值,并在适用时考虑裁剪和宏块配对)。该公式在标准2017版的A.3.1.h和A.3.2.f节中有规定。[35]

等级 1 1b 1.1 1.2 1.3 2 2.1 2.2 3 3.1 3.2 4 4.1 4.2 5 5.1 5.2 6 6.1 6.2
MaxDpbMbs 396 396 900 2,376 2,376 2,376 4,752 8,100 8,100 18,000 20,480 32,768 32,768 34,816 110,400 184,320 184,320 696,320 696,320 696,320

例如,对于1290个样本宽(PicWidthInMbs = 120)和1080个样本高(FrameHeightInMbs = 68)的HDTV图像,4级解码器的最大DPB存储容量为floor(32768/(120*68)) = 4帧(或8场)。因此,对于帧大小为1920×1080的级别4,值4显示在上表右列的括号中。

重要的是要注意,被解码的当前图像不包括在DPB充满度的计算中(除非编码器已经指示将其存储起来用作解码其他图像或延迟输出定时的参考)。因此,解码器实际上需要有足够的存储器来处理(至少)一帧,比如上所属的DPB最大容量更多。

5 实现编辑

2009年,HTML5工作组被奥格定理的支持者和H.264分开,奥格定理是一种被认为不受专利限制的免费视频格式,H. 264 包含专利技术。直到2009年7月,据说谷歌和苹果支持H.264,而Mozilla和Opera支持Ogg Theora(现在谷歌、Mozilla和Opera都支持Theora和带有VP8的WebM)。[35]随着网络浏览器9的发布,微软增加了对使用H.264编码的HTML 5视频的支持。在2010年11月的高德纳研讨会/ITXpo上,微软首席执行官史蒂夫·鲍尔默通过说“如果你想做一些普遍性的事情,毫无疑问,世界将走向HTML5。”回答了“HTML 5还是Silverlight?”.[36] 2011年1月,谷歌宣布,他们将从他们的浏览器中撤出对H.264的支持,并支持Theora和WebM/VP8来只使用开放格式。[37]

2012年3月18日,Mozilla宣布在移动设备上支持Firefox中的H.264,原因是H.264编码视频的普及以及在此类设备上使用专用H.264解码器硬件的能效提高。[38]2013年2月20日,Mozilla在火狐中实现了对在Windows 7及更高版本上解码H.264的支持。这个特性依赖于Windows系统内置的解码库。[39]火狐35.0于2015年1月13日发布,支持OS X 10.6及更高版本的H.264。[40]

2013年10月30日,思科系统公司的罗文·特罗洛普(Rowan Trollope)宣布,思科将在简化BSD许可下发布名为OpenH264的H.264视频编解码器的二进制文件和源代码,并为使用思科预编译二进制文件的任何软件项目向MPEG LA支付其使用的所有版税,从而使思科的OpenH264二进制文件可以自由使用。然而,任何使用思科源代码而不是其二进制代码的软件项目都将承担向MPEG LA支付所有版税的法律责任。当前的目标CPU架构是x86和ARM,当前的目标操作系统是Linux、Windows XP及更高版本、苹果OS X和安卓;iOS显然不在这个列表中,因为它不允许应用程序从互联网获取和安装二进制模块。[41][42][43]同样在2013年10月30日,来自Mozilla的布兰登·艾奇(Brendan Eich)写道,在未来版本的火狐中,它将使用思科的二进制文件来为平台编解码器不可用的火狐增加对H.264的支持。[44]

思科于2013年12月9日向OpenH264发布了该源代码。[45]

5.1 软件编码器

AVC软件实现
特征 QuickTime Nero LEAD x264 Main-
Concept
Elecard  TSE  Pro-
Coder
Avivo Elemental  IPP 
B 切片
多个参考帧
隔行编码(PicAFF、MBAFF) MBAFF MBAFF MBAFF MBAFF
CABAC熵编码
8×8与4×4变换适应性
量化标度矩阵
单独的Cb和Cr QP控制
扩展色度格式 No No No 4:2:2[46]
4:4:4[47]
4:2:0  
4:2:2 4:2:2 4:2:2 No No 4:2:0
4:2:2
No
最大采样深度(位) 8 8 8 10[48] 10 8 8 8 8 10 12
预测无损编码 Yes[49]

5.2 硬件

因为H.264编码和解码在特定类型的算术运算中需要大量的计算能力,所以运行在通用处理器上的软件实现通常能效较低。然而,最新的四核通用x86处理器具有足够的计算能力来执行实时标清SD和高清HD编码。压缩效率取决于视频算法实现,而不是使用硬件还是软件实现。因此,基于硬件和软件的实现之间的差异更多地在于能效、灵活性和成本。为了提高功率效率和降低硬件外形,可以使用专用硬件,用于完整的编码或解码过程,或者用于在中央处理器控制的环境中的加速辅助。

众所周知,基于中央处理器的解决方案要灵活得多,特别是当编码必须以多种格式、多比特率和分辨率(多屏幕视频)同时进行时,并且可能具有容器格式支持的附加功能、高级集成广告功能等。基于中央处理器的软件解决方案通常使得在同一中央处理器内负载平衡多个并发编码会话变得更加容易。

2011年1月CES(消费电子展)推出的第二代英特尔“Sany Bridge” Core i3/i5/i7处理器提供片内硬件全高清HD的H.264编码器,称为英特尔快速同步视频。[50][51]

硬件H.264编码器可以是一个专用集成电路ASIC或一个现场可编程门阵列FPGA。

具有H.264编码器功能的专用集成电路编码器可从许多不同的半导体公司获得,但专用集成电路中使用的核心设计通常是从少数几家公司之一获得许可的,如Chips&Media、Allegro DVT、On2(前Hantro,后被谷歌收购)、Imagination Technologies、NGCodec。一些公司既提供现场可编程门阵列FPGA产品,也提供专用集成电路AISC产品。[52]

德州仪器制造一系列ARM +数字信号处理器DSP内核,以30帧/秒的速度执行DSP  H. 264BP 编码1080P。[53]这允许编解码器方面的灵活性(作为高度优化的数字信号处理器代码实现),同时比通用中央处理器上的软件更高效。

6 许可证书编辑

在维护软件算法专利的国家,使用H.264/AVC的产品的供应商和商业用户需要为其产品使用的专利技术支付专利许可使用费。[54]这也适用于基线配置文件。[55]

一个被称为MPEG LA的私人组织,它不以任何方式隶属于MPEG标准化组织,管理适用于该标准的专利许可证,以及MPEG-2Part 1系统、MPEG-2Part 2视频、MPEG-4Part 2视频、HEVC、MPEG-DASH和其他技术的专利池。美国的MPEG LA H.264专利至少持续到2027年。[56]

2010年8月26日,MPEG LA宣布不对终端用户使用的H.264编码互联网收取版税。[57]所有其他版税仍然有效,例如解码和编码H.264视频的产品的版税,以及免费电视和订阅频道的运营商的版税。[58]许可证条款在5年内更新。[59]

专利在法律上的实际地位和在2018年底到期,可查阅123页。 [60]

2005年,Qualcomm, 美国专利5,452,104和美国专利5,576,767的代理人让在美国地方法院起诉Broadcom公司,指控Broadcom公司通过生产符合H.264视频压缩标准的产品侵犯了这两项专利。[61]2007年,地区法院认定这些专利不可执行,因为Qualcomm公司在2003年5月发布H.264标准之前没有向JVT披露这些专利。[61]2008年12月,美国联邦巡回上诉法院确认了地区法院的命令,即专利不可执行,但应发回地区法院,并指示将不可执行的范围限制在符合H.264标准的产品。[61]

参考文献

  • [1]

    ^Ozer, Jan. "Encoding for Multiple Screen Delivery, Section 3, Lecture 7: Introduction to H.264". Udemy. Retrieved 10 October 2016..

  • [2]

    ^"Delivering 8K using AVC/H.264". Mystery Box (in 英语). Retrieved 2017-08-23..

  • [3]

    ^"AVC/H.264 FAQ". www.mpegla.com. Retrieved 2016-09-15..

  • [4]

    ^"H.262 : Information technology — Generic coding of moving pictures and associated audio information: Video". Retrieved 2007-04-15..

  • [5]

    ^Joint Video Team, ITU-T Web site..

  • [6]

    ^"ITU-T Recommendation H.264 (05/2003)". ITU. 2003-05-30. Retrieved 2013-04-18..

  • [7]

    ^"ITU-T Recommendation H.264 (05/2003) Cor. 1 (05/2004)". ITU. 2004-05-07. Retrieved 2013-04-18..

  • [8]

    ^"ITU-T Recommendation H.264 (03/2005)". ITU. 2005-03-01. Retrieved 2013-04-18..

  • [9]

    ^"ITU-T Recommendation H.264 (2005) Cor. 1 (09/2005)". ITU. 2005-09-13. Retrieved 2013-04-18..

  • [10]

    ^"ITU-T Recommendation H.264 (2005) Amd. 1 (06/2006)". ITU. 2006-06-13. Retrieved 2013-04-18..

  • [11]

    ^"ITU-T Recommendation H.264 (2005) Amd. 2 (04/2007)". ITU. 2007-04-06. Retrieved 2013-04-18..

  • [12]

    ^"ITU-T Recommendation H.264 (11/2007)". ITU. 2007-11-22. Retrieved 2013-04-18..

  • [13]

    ^"ITU-T Recommendation H.264 (2007) Cor. 1 (01/2009)". ITU. 2009-01-13. Retrieved 2013-04-18..

  • [14]

    ^"ITU-T Recommendation H.264 (03/2009)". ITU. 2009-03-16. Retrieved 2013-04-18..

  • [15]

    ^"ITU-T Recommendation H.264 (03/2010)". ITU. 2010-03-09. Retrieved 2013-04-18..

  • [16]

    ^"ITU-T Recommendation H.264 (06/2011)". ITU. 2011-06-29. Retrieved 2013-04-18..

  • [17]

    ^"ITU-T Recommendation H.264 (01/2012)". ITU. 2012-01-13. Retrieved 2013-04-18..

  • [18]

    ^"ITU-T Recommendation H.264 (04/2013)". ITU. 2013-06-12. Retrieved 2013-06-16..

  • [19]

    ^"ITU-T Recommendation H.264 (02/2014)". ITU. 2014-11-28. Retrieved 2016-02-28..

  • [20]

    ^"ITU-T Recommendation H.264 (02/2016)". ITU. 2016-02-13. Retrieved 2017-06-14..

  • [21]

    ^"ITU-T Recommendation H.264 (10/2016)". ITU. 2016-10-14. Retrieved 2017-06-14..

  • [22]

    ^"Which recording mode is equivalent to the image quality of the High Definition Video (HDV) format?". Sony eSupport. Archived from the original on November 9, 2017. Retrieved December 8, 2018..

  • [23]

    ^"ATSC Standard A/72 Part 1: Video System Characteristics of AVC in the ATSC Digital Television System" (PDF). Archived from the original (PDF) on August 7, 2011. Retrieved July 30, 2011..

  • [24]

    ^"ATSC Standard A/72 Part 2: AVC Video Transport Subsystem Characteristics" (PDF). Archived from the original (PDF) on August 7, 2011. Retrieved July 30, 2011..

  • [25]

    ^"ATSC Standard A/153 Part 7: AVC and SVC Video System Characteristics" (PDF). Archived from the original (PDF) on July 26, 2011. Retrieved July 30, 2011..

  • [26]

    ^"Sony introduces new XAVC recording format to accelerate 4K development in the professional and consumer markets". Sony. 2012-10-30. Retrieved 2012-11-01..

  • [27]

    ^"Sony introduces new XAVC recording format to accelerate 4K development in the professional and consumer markets" (PDF). Sony. 2012-10-30. Retrieved 2012-11-01.[永久失效连结].

  • [28]

    ^Steve Dent (2012-10-30). "Sony goes Red-hunting with PMW-F55 and PMW-F5 pro CineAlta 4K Super 35mm sensor camcorders". Engadget. Retrieved 2012-11-05..

  • [29]

    ^"F55 CineAlta 4K the future, ahead of schedule" (PDF). Sony. October 30, 2012. Archived from the original (PDF) on November 19, 2012. Retrieved November 1, 2012..

  • [30]

    ^"Ultra-fast "SxS PRO+" memory cards transform 4K video capture". Sony. Archived from the original on March 8, 2013. Retrieved November 5, 2012..

  • [31]

    ^"Ultra-fast "SxS PRO+" memory cards transform 4K video capture" (PDF). Sony. Archived from the original (PDF) on April 2, 2015. Retrieved November 5, 2012..

  • [32]

    ^RFC 3984, p.3.

  • [33]

    ^Apple Inc. (1999-03-26). "H.264 FAQ". Apple. Archived from the original on March 7, 2010. Retrieved 2010-05-17..

  • [34]

    ^Karsten Suehring. "H.264/AVC JM Reference Software Download". Iphome.hhi.de. Retrieved 2010-05-17..

  • [35]

    ^"ITU-T Recommendation H.264 (04/2017)". ITU. 2017-04-13. See Tables A-1, A-6 and A-7 for the tabulated level-dependent capabilities. Retrieved 2017-06-14..

  • [36]

    ^"Steve Ballmer, CEO Microsoft, interviewed at Gartner Symposium/ITxpo Orlando 2010". Gartnervideo. November 2010. Retrieved 2011-01-12..

  • [37]

    ^"HTML Video Codec Support in Chrome". 2011-01-11. Retrieved 2011-01-12..

  • [38]

    ^"Video, Mobile, and the Open Web". 2012-03-18. Retrieved 2012-03-20..

  • [39]

    ^"WebRTC enabled, H.264/MP3 support in Win 7 on by default, Metro UI for Windows 8 + more – Firefox Development Highlights". hacks.mozilla.org. mozilla. 2013-02-20. Retrieved 2013-03-15..

  • [40]

    ^"Firefox — Notes (35.0)". Mozilla..

  • [41]

    ^"Open-Sourced H.264 Removes Barriers to WebRTC". 2013-10-30. Retrieved 2013-11-01..

  • [42]

    ^"Cisco OpenH264 project FAQ". 2013-10-30. Retrieved 2013-11-01..

  • [43]

    ^"OpenH264 Simplified BSD License". 2013-10-27. Retrieved 2013-11-21..

  • [44]

    ^"Video Interoperability on the Web Gets a Boost From Cisco's H.264 Codec". 2013-10-30. Retrieved 2013-11-01..

  • [45]

    ^"Updated README · cisco/openh264@59dae50". GitHub..

  • [46]

    ^"x264 4:2:2 encoding support", Retrieved 2011-09-22..

  • [47]

    ^"x264 4:4:4 encoding support", Retrieved 2011-06-22..

  • [48]

    ^"x264 support for 9 and 10-bit encoding", Retrieved 2011-06-22..

  • [49]

    ^"x264 replace High 4:4:4 profile lossless with High 4:4:4 Predictive", Retrieved 2011-06-22..

  • [50]

    ^"Quick Reference Guide to generation Intel® Core™ Processor Built-in Visuals". Intel® Software Network. 2010-10-01. Retrieved 2011-01-19..

  • [51]

    ^"Intel® Quick Sync Video". www.intel.com. 2010-10-01. Retrieved 2011-01-19..

  • [52]

    ^"Design-reuse.com". Design-reuse.com. 1990-01-01. Retrieved 2010-05-17..

  • [53]

    ^"Category:DM6467 - Texas Instruments Embedded Processors Wiki". Processors.wiki.ti.com. 2011-07-12. Retrieved 2011-07-30..

  • [54]

    ^"Briefing portfolio" (PDF). www.mpegla.com..

  • [55]

    ^"OMS Video, A Project of Sun's Open Media Commons Initiative". Archived from the original on May 11, 2010. Retrieved August 26, 2008..

  • [56]

    ^https://web.archive.org/web/20221028212113/http://www.osnews.com/story/24954/US_Patent_Expiration_for_MP3_MPEG-2_H_264 has a MPEG LA patent US 7826532 that was filed in September 5, 2003 and has a 1546 day term extension. http://patft1.uspto.gov/netacgi/nph-Parser?patentnumber=7826532 http://www.google.com/patents/about?id=2onYAAAAEBAJ.

  • [57]

    ^"MPEG LA's AVC License Will Not Charge Royalties for Internet Video that is Free to End Users through Life of License" (PDF). MPEG LA. 2010-08-26. Retrieved 2010-08-26..

  • [58]

    ^Hachman, Mark (2010-08-26). "MPEG LA Cuts Royalties from Free Web Video, Forever". pcmag.com. Retrieved 2010-08-26..

  • [59]

    ^"AVC FAQ". MPEG LA. 2002-08-01. Retrieved 2010-05-17..

  • [60]

    ^https://web.archive.org/web/20221028212113/http://www.mpegla.com/main/programs/AVC/Documents/avc-att1.pdf.

  • [61]

    ^See Qualcomm Inc. v. Broadcom Corp., No. 2007-1545, 2008-1162 (Fed. Cir. December 1, 2008). For articles in the popular press, see signonsandiego.com, "Qualcomm loses its patent-rights case" and "Qualcomm's patent case goes to jury"; and bloomberg.com "Broadcom Wins First Trial in Qualcomm Patent Dispute".

阅读 6211
版本记录
  • 暂无