一、什么是 ffmpeg
FFmpeg是一个开源免费跨平台的视频和音频流方案,属于自由软件,采用LGPL或GPL许可证(依据你选择的组件)。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多codec都是从头开发的。
1.1、下载 ffmpeg
①、windows 系统
下载 FFmpeg: 我下的是shared版的。
解压,将 bin 文件夹下的所有文件包括 .exe 和 .dll 都拷贝到 C:\Windows\System32(32位系统)、 C:\Windows\SysWOW64(64位系统)中。
②、linux 系统
在安装ffmpeg之前,首先要安装yasm
安装yasm
yasm是一个完全重写的NASM汇编。目前,它支持x86和AMD64指令集,接受NASM和气体汇编语法,产出二进制, ELF32 , ELF64 , COFF , Mach - O的( 32和64 ) , RDOFF2 ,的Win32和Win64对象的格式,并生成STABS 调试信息的来源,DWARF 2 ,CodeView 8格式。之所以在FFmpeg中用这个,主要是支持编译ffmpeg-x264。
下载yasm-1.3.0.tar.gz这个版本:
wget http://www.tortall.net/projects/yasm/releases/yasm-1.3.0.tar.gz
下载完成后,用开始解压
tar xzvf yasm-1.3.0.tar.gz
进入目录,开始编译
cd yasm-1.3.0
./configure
make
安装
make install
下载FFmpeg
wget http://ffmpeg.org/releases/ffmpeg-3.1.3.tar.gz
下载完成后,用开始解压
tar -zxvf ffmpeg-3.1.3.tar.gz
进入目录,开始编译
cd ffmpeg-3.1.3
./configure
make
安装
make install
测试是否安装成功
ffmpeg
二、ffmpeg 命令
ffmpeg [options] [[infile options] -i infile]... {[outfile options] outfile}...
常用参数说明:
主要参数:
-i 设定输入流
-f 设定输出格式
-ss 开始时间
视频参数:
-b 设定视频流量,默认为200Kbit/s
-r 设定帧速率,默认为25
-s 设定画面的宽与高
-aspect 设定画面的比例
-vn 不处理视频
-vcodec 设定视频编解码器,未设定时则使用与输入流相同的编解码器
音频参数:
-ar 设定采样率
-ac 设定声音的Channel数
-acodec 设定声音编解码器,未设定时则使用与输入流相同的编解码器
-an 不处理音频
2.1、获取视频信息
ffmpeg -i /www/test.mp4 2>&1
ffmpeg -i /www/test.mp4 2>&1 | grep "Video" | cut -d " " -f 15
grep命令:匹配查找文件里符合条件的字符串,这里查找Video字段
cut:以空格为分割符,查询第15个元素
2>&1:见3.1
2.2、视频格式转换
(其实格式转换说法不太准确,但大家都这么叫,准确的说,应该是视频容器转换)
比如一个avi文件,想转为mp4,或者一个mp4想转为ts。
ffmpeg -i input.avi output.mp4
ffmpeg -i input.mp4 output.ts
2.3、提取音频
比如我有一个“晓松奇谈”,可是我不想看到他的脸,我只想听声音, 地铁上可以听,咋办?
ffmpeg -i 晓松奇谈.mp4 -acodec copy -vn output.aac
上面的命令,默认mp4的audio codec是aac,如果不是会出错,咱可以暴力一点,不管什么音频,都转为最常见的aac
ffmpeg -i 晓松奇谈.mp4 -acodec aac -vn output.aac
2.4、视频剪切
经常要测试视频,但是只需要测几秒钟,可是视频却有几个G,咋办?切啊!
下面的命令,就可以从时间为00:00:15开始,截取5秒钟的视频。
ffmpeg -ss 00:00:15 -t 00:00:05 -i input.mp4 -vcodec copy -acodec copy output.mp4
-ss表示开始切割的时间,-t表示要切多少。上面就是从开始,切5秒钟出来。
2.5、码率控制/压缩视频
码率控制对于在线视频比较重要。因为在线视频需要考虑其能提供的带宽。
那么,什么是码率?很简单:
bitrate = file size / duration
比如一个文件20.8M,时长1分钟,那么,码率就是:
biterate = 20.8M bit/60s = 20.8*1024*1024*8 bit/60s= 2831Kbps
一般音频的码率只有固定几种,比如是128Kbps,
那么,video的就是
video biterate = 2831Kbps -128Kbps = 2703Kbps。
ffmpg控制码率有3种选择,-minrate -b:v -maxrate
-b:v主要是控制平均码率(比如一个视频源的码率太高了,有10Mbps,文件太大,想把文件弄小一点,但是又不破坏分辨率。 )
比如一个视频源的码率太高了,有10Mbps,文件太大,想把文件弄小一点,但是又不破坏分辨率。
ffmpeg -y -i input.mp4 -b:v 2000k output.mp4
上面把码率从原码率转成2Mbps码率,这样其实也间接让文件变小了。目测接近一半。
-y 覆盖输出文件,即如果output.mp4文件已经存在的话,不经提示就覆盖掉了
"output.mp4" 输出文件名,也可以修改路径和名称
不过,ffmpeg官方wiki比较建议,设置b:v时,同时加上 -bufsize
-bufsize 用于设置码率控制缓冲器的大小,设置的好处是,让整体的码率更趋近于希望的值,减少波动。(简单来说,比如1 2的平均值是1.5, 1.49 1.51 也是1.5, 当然是第二种比较好)
ffmpeg -i input.mp4 -b:v 2000k -bufsize 2000k output.mp4
-minrate -maxrate就简单了,在线视频有时候,希望码率波动,不要超过一个阈值,可以设置maxrate。
ffmpeg -i input.mp4 -b:v 2000k -bufsize 2000k -maxrate 2500k output.mp4
ffmpeg -i input.mp4 -s 640x480 output.mp4
-s 400x240 输出的分辨率
2.6、视频编码格式转换
比如一个视频的编码是MPEG4,想用H264编码,咋办?
ffmpeg -i input.mp4 -vcodec h264 output.mp4
相反也一样
ffmpeg -i input.mp4 -vcodec mpeg4 output.mp4
当然了,如果ffmpeg当时编译时,添加了外部的x265或者X264,那也可以用外部的编码器来编码。(不知道什么是X265,可以Google一下,简单的说,就是她不包含在ffmpeg的源码里,是独立的一个开源代码,用于编码HEVC,ffmpeg编码时可以调用它。当然了,ffmpeg自己也有编码器)
ffmpeg -i input.mp4 -c:v libx265 output.mp4
ffmpeg -i input.mp4 -c:v libx264 output.mp4
2.7、为视频添加logo
ffmpeg -i input.mp4 -i iQIYI_logo.png -filter_complex overlay output.mp4
要贴到其他地方?看下面:
右上角:
ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=W-w output.mp4
左下角:
ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=0:H-h output.mp4
右下角:
ffmpeg -i input.mp4 -i logo.png -filter_complex overlay=W-w:H-h output.mp4
2.8、去掉视频的logo
有时候,下载了某个网站的视频,但是有logo很烦,咋办?有办法,用ffmpeg的delogo过滤器。
语法:
-vf delogo=x:y:w:h[:t[:show]]
x:y 离左上角的坐标
w:h logo的宽和高
t: 矩形边缘的厚度默认值4
show:若设置为1有一个绿色的矩形,默认值0。
ffmpeg -i input.mp4 -vf delogo=0:0:220:90:100:1 output.mp4
2.9、抓取视频的一些帧,存为jpeg图片
ffmpeg -i input.mp4 -r 1 -q:v 2 -f image2 pic-%03d.jpeg
r 表示每一秒几帧 -q:v表示存储jpeg的图像质量,一般2是高质量。 如此,ffmpeg会把input.mp4,每隔一秒,存一张图片下来。假设有60s,那会有60张。
60张?什么?这么多?不要不要。。。。。不要咋办?? 可以设置开始的时间,和你想要截取的时间呀。
ffmpeg -i input.mp4 -ss 00:00:20 -t 10 -r 1 -q:v 2 -f image2 pic-%03d.jpeg
-ss 表示开始时间 -t表示共要多少时间。 如此,ffmpeg会从input.mp4的第20s时间开始,往下10s,即20~30s这10秒钟之间,每隔1s就抓一帧,总共会抓10帧。
三、php 和 ffmpeg
3.1、php执行shell不阻塞方法
大家都知道php执行系统命令的方法有:
system() 输出并返回最后一行shell结果。
exec() 不输出结果,返回最后一行shell结果,所有结果可以保存到一个返回的数组里面。
passthru() 只调用命令,把命令的运行结果原样地直接输出到标准输出设备上。
这些方法都会等待命令执行完毕后才会继续执行后续的程序
不阻塞可以将命令输出的内容写入系统的一个回收站文件,这样程序就不会阻塞
例如:
shell_exec("/use/local/php/bin/php /www/t.php > /dev/null 2>&1 &");
shell中可能经常能看到:>/dev/null 2>&1
命令的结果可以通过%>的形式来定义输出
/dev/null 代表空设备文件
代表重定向到哪里,例如:echo “123” > /home/123.txt
1 表示stdout标准输出,系统默认值是1,所以”>/dev/null”等同于”1>/dev/null”
2 表示stderr标准错误
& 表示等同于的意思,2>&1,表示2的输出重定向等同于1
那么本文标题的语句:
1>/dev/null 首先表示标准输出重定向到空设备文件,也就是不输出任何信息到终端,说白了就是不显示任何信息。
2>&1 接着,标准错误输出重定向等同于 标准输出,因为之前标准输出已经重定向到了空设备文件,所以标准错误输出也重定向到空设备文件。
3.2、PHP 使用 ffmpeg 获取视频缩略图
①、功能需求
上传好视频后,PHP 后台自动选取视频流中的某一帧作为视频封面。
②、工具:FFmpeg
FFmpeg 是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序,功能很强大。
③、使用 ffmpeg
A、调用系统命令
在php文件中调用 system() 或 exec() 方法来实现帧图像的提取。(注意:在php中路径字符串中‘\’需转义:“\\”)
调用系统命令前请查看 php.ini 中的配置
disable_functions = passthru,chroot,chgrp,chown,proc_open,proc_get_status,popen,ini_alter,ini_restore,dl,openlog,syslog,readlink,symlink,popepassthru
去掉你需要调用的系统命令,然后重启php,记住是重启 php
$name = rand(0, 9999999).".png";
$from = "F:\\test.mp4";
$to = "F:\\";
$str = "ffmpeg -i ".$from." -y -f mjpeg -ss 3 -t 1 -s 740x500 ".$to.$name;
system($str);
B、安装 PHP-FFMpeg
通过 composer 安装 PHP-FFMpeg
composer require php-ffmpeg/php-ffmpeg
或者直接下载 vendor
代码
require "vendor/autoload.php";
$ffmpeg = FFMpeg\FFMpeg::create();
$video = $ffmpeg->open("test.mp4");
$frame = $video->frame(FFMpeg\Coordinate\TimeCode::fromSeconds(10));
$res = $frame->save("image.jpg");
3.3、Executable not found, proposed : avprobe, ffprobe
php-fpm 在执行 FFMPEG 的时候,没有找到 ffprobe 和 ffmpeg 解决办法如下:
命令行解决
通过 shell 确定文件位置
whereis ffprobe
/usr/local/bin/ffprobe
which ffmpeg
/usr/local/bin/ffmpeg
在初始化 FFMpeg 的时候将文件位置写入
$ffmpeg = FFMpeg::create([
'ffmpeg.binaries' => '/usr/local/bin/ffmpeg',
'ffprobe.binaries' => '/usr/local/bin/ffprobe',
]);
PHP 代码直接解决
// 写入 WWW 用户的环境变量
putenv('PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin:$PATH');
// 通过 exec 函数找到文件对应位置
$ffmpeg = FFMpeg::create([
'ffmpeg.binaries' => exec('which ffmpeg'),
'ffprobe.binaries' => exec('which ffprobe'),
]);
虽然看似两种办法,其实解决思路是一致的,都是要指定 ffmpeg 和 ffprobe 文件的位置。理论上直接在服务器上将 www 用户的环境变量加入 ffmpeg 和 ffprobe 也可以解决此问题(没有测试,不保证有效,有兴趣的可以自行验证)。