H5Recorder.js 11 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216
  1. //必须引入的Recorder核心(文件路径是 /src/recorder-core.js 下同),使用import、require都行
  2. import Recorder from 'recorder-core' //注意如果未引用Recorder变量,可能编译时会被优化删除(如vue3 tree-shaking),请改成 import 'recorder-core',或随便调用一下 Recorder.a=1 保证强引用
  3. //必须引入的RecordApp核心文件(文件路径是 /src/app-support/app.js)
  4. import RecordApp from 'recorder-core/src/app-support/app'
  5. //所有平台必须引入的uni-app支持文件(如果编译出现路径错误,请把@换成 ../../ 这种)
  6. import '@/uni_modules/Recorder-UniCore/app-uni-support.js'
  7. import 'recorder-core/src/engine/mp3'
  8. import 'recorder-core/src/engine/mp3-engine' //如果此格式有额外的编码引擎(*-engine.js)的话,必须要加上
  9. //可选的插件支持项,把需要的插件按需引入进来即可
  10. import 'recorder-core/src/extensions/waveview'
  11. export default {
  12. data() {
  13. return {
  14. longPress: true, // 是否长按
  15. getRecord: false, // 是否获取权限
  16. showRecorder: false, // 是否在录音
  17. // isMounted
  18. };
  19. },
  20. onShow() {
  21. if (this.isMounted) RecordApp.UniPageOnShow(this);
  22. },
  23. created() {
  24. this.recReq()
  25. },
  26. mounted() {
  27. this.isMounted = true;
  28. //页面onShow时【必须调用】的函数,传入当前组件this
  29. RecordApp.UniPageOnShow(this);
  30. },
  31. methods: {
  32. // 长按触发
  33. longPressEvent() {
  34. // this.recReq();
  35. this.longPress = true;
  36. if (this.getRecord) {
  37. // 获取录音权限,直接开始录音
  38. this.recStart();
  39. } else {
  40. // 未获取,重新获取,参数未获取权限成功后开启录音
  41. this.recReq(true);
  42. }
  43. },
  44. // 长按结束
  45. longPressEnd(e) {
  46. e.preventDefault();
  47. this.longPress = false;
  48. try {
  49. this.recStop()
  50. } catch (e) {
  51. //TODO handle the exception
  52. }
  53. },
  54. //请求录音权限
  55. recReq(startRecord = false) {
  56. //编译成App时提供的授权许可(编译成H5、小程序为免费授权可不填写);如果未填写授权许可,将会在App打开后第一次调用请求录音权限时,弹出“未获得商用授权时,App上仅供测试”提示框
  57. //RecordApp.UniAppUseLicense='我已获得UniAppID=*****的商用授权';
  58. //RecordApp.RequestPermission_H5OpenSet={ audioTrackSet:{ noiseSuppression:true,echoCancellation:true,autoGainControl:true } }; //这个是Start中的audioTrackSet配置,在h5(H5、App+renderjs)中必须提前配置,因为h5中RequestPermission会直接打开录音
  59. RecordApp.UniWebViewActivate(this); //App环境下必须先切换成当前页面WebView
  60. RecordApp.RequestPermission(() => {
  61. // console.log("已获得录音权限,可以开始录音了");
  62. this.getRecord = true;
  63. if (startRecord) {
  64. // 获取之后立即录音
  65. this.recStart();
  66. } else {
  67. // this.recStop()
  68. }
  69. }, (msg, isUserNotAllow) => {
  70. this.getRecord = false;
  71. if (isUserNotAllow) { //用户拒绝了录音权限
  72. //这里你应当编写代码进行引导用户给录音权限,不同平台分别进行编写
  73. }
  74. console.error("请求录音权限失败:" + msg);
  75. });
  76. },
  77. //开始录音
  78. recStart() {
  79. if (!this.longPress) {
  80. return false
  81. }
  82. this.showRecorder = true;
  83. //录音配置信息
  84. var set = {
  85. type: "mp3",
  86. sampleRate: 16000,
  87. bitRate: 16 //mp3格式,指定采样率hz、比特率kbps,其他参数使用默认配置;注意:是数字的参数必须提供数字,不要用字符串;需要使用的type类型,需提前把格式支持文件加载进来,比如使用wav格式需要提前加载wav.js编码引擎
  88. /*,audioTrackSet:{ //可选,如果需要同时播放声音(比如语音通话),需要打开回声消除(打开后声音可能会从听筒播放,部分环境下(如小程序、App原生插件)可调用接口切换成扬声器外放)
  89. //注意:H5、App+renderjs中需要在请求录音权限前进行相同配置RecordApp.RequestPermission_H5OpenSet后此配置才会生效
  90. echoCancellation:true,noiseSuppression:true,autoGainControl:true} */
  91. ,
  92. onProcess: (buffers, powerLevel, duration, sampleRate, newBufferIdx, asyncEnd) => {
  93. //全平台通用:可实时上传(发送)数据,配合Recorder.SampleData方法,将buffers中的新数据连续的转换成pcm上传,或使用mock方法将新数据连续的转码成其他格式上传,可以参考Recorder文档里面的:Demo片段列表 -> 实时转码并上传-通用版;基于本功能可以做到:实时转发数据、实时保存数据、实时语音识别(ASR)等
  94. //注意:App里面是在renderjs中进行实际的音频格式编码操作,此处的buffers数据是renderjs实时转发过来的,修改此处的buffers数据不会改变renderjs中buffers,所以不会改变生成的音频文件,可在onProcess_renderjs中进行修改操作就没有此问题了;如需清理buffers内存,此处和onProcess_renderjs中均需要进行清理,H5、小程序中无此限制
  95. //注意:如果你要用只支持在浏览器中使用的Recorder扩展插件,App里面请在renderjs中引入此扩展插件,然后在onProcess_renderjs中调用这个插件;H5可直接在这里进行调用,小程序不支持这类插件;如果调用插件的逻辑比较复杂,建议封装成js文件,这样逻辑层、renderjs中直接import,不需要重复编写
  96. //H5、小程序等可视化图形绘制,直接运行在逻辑层;App里面需要在onProcess_renderjs中进行这些操作
  97. // #ifdef H5 || MP-WEIXIN
  98. if (this.waveView) this.waveView.input(buffers[buffers.length - 1], powerLevel, sampleRate);
  99. // #endif
  100. },
  101. onProcess_renderjs: `function(buffers,powerLevel,duration,sampleRate,newBufferIdx,asyncEnd){
  102. //App中在这里修改buffers会改变生成的音频文件,但注意:buffers会先转发到逻辑层onProcess后才会调用本方法,因此在逻辑层的onProcess中需要重新修改一遍
  103. //本方法可以返回true,renderjs中的onProcess将开启异步模式,处理完后调用asyncEnd结束异步,注意:这里异步修改的buffers一样的不会在逻辑层的onProcess中生效
  104. //App中是在renderjs中进行的可视化图形绘制,因此需要写在这里,this是renderjs模块的this(也可以用This变量);如果代码比较复杂,请直接在renderjs的methods里面放个方法xxxFunc,这里直接使用this.xxxFunc(args)进行调用
  105. if(this.waveView) this.waveView.input(buffers[buffers.length-1],powerLevel,sampleRate);
  106. }`,
  107. onProcessBefore_renderjs: `function(buffers,powerLevel,duration,sampleRate,newBufferIdx){
  108. //App中本方法会在逻辑层onProcess之前调用,因此修改的buffers会转发给逻辑层onProcess,本方法没有asyncEnd参数不支持异步处理
  109. //一般无需提供本方法只用onProcess_renderjs就行,renderjs的onProcess内部调用过程:onProcessBefore_renderjs -> 转发给逻辑层onProcess -> onProcess_renderjs
  110. }`
  111. ,
  112. takeoffEncodeChunk: true ? null : (chunkBytes) => {
  113. //全平台通用:实时接收到编码器编码出来的音频片段数据,chunkBytes是Uint8Array二进制数据,可以实时上传(发送)出去
  114. //App中如果未配置RecordApp.UniWithoutAppRenderjs时,建议提供此回调,因为录音结束后会将整个录音文件从renderjs传回逻辑层,由于uni-app的逻辑层和renderjs层数据交互性能实在太拉跨了,大点的文件传输会比较慢,提供此回调后可避免Stop时产生超大数据回传
  115. },
  116. takeoffEncodeChunk_renderjs: true ? null : `function(chunkBytes){
  117. //App中这里可以做一些仅在renderjs中才生效的事情,不提供也行,this是renderjs模块的this(也可以用This变量)
  118. }`
  119. ,
  120. start_renderjs: `function(){
  121. //App中可以放一个函数,在Start成功时renderjs中会先调用这里的代码,this是renderjs模块的this(也可以用This变量)
  122. //放一些仅在renderjs中才生效的事情,比如初始化,不提供也行
  123. }`,
  124. stop_renderjs: `function(arrayBuffer,duration,mime){
  125. //App中可以放一个函数,在Stop成功时renderjs中会先调用这里的代码,this是renderjs模块的this(也可以用This变量)
  126. //放一些仅在renderjs中才生效的事情,不提供也行
  127. }`
  128. };
  129. RecordApp.UniWebViewActivate(this); //App环境下必须先切换成当前页面WebView
  130. RecordApp.Start(set, () => {
  131. this.start()
  132. //创建音频可视化图形绘制,App环境下是在renderjs中绘制,H5、小程序等是在逻辑层中绘制,因此需要提供两段相同的代码
  133. //view里面放一个canvas,canvas需要指定宽高(下面style里指定了300*100)
  134. //<canvas type="2d" class="recwave-WaveView" style="width:300px;height:100px"></canvas>
  135. const w = uni.upx2px(700);
  136. const h = uni.upx2px(100);
  137. // const h = uni.upx2px(70);
  138. this.$nextTick(() => {
  139. RecordApp.UniFindCanvas(this, [".recwave-WaveView"], `
  140. this.waveView=Recorder.WaveView({compatibleCanvas:canvas1, width:${w}, height:${h}});
  141. `, (canvas1) => {
  142. this.waveView = Recorder.WaveView({
  143. compatibleCanvas: canvas1,
  144. width: w,
  145. height: h
  146. });
  147. });
  148. })
  149. }, (msg) => {
  150. this.showRecorder = false;
  151. console.error("开始录音失败:" + msg);
  152. });
  153. },
  154. //暂停录音
  155. recPause() {
  156. if (RecordApp.GetCurrentRecOrNull()) {
  157. RecordApp.Pause();
  158. console.log("已暂停");
  159. }
  160. },
  161. //继续录音
  162. recResume() {
  163. if (RecordApp.GetCurrentRecOrNull()) {
  164. RecordApp.Resume();
  165. console.log("继续录音中...");
  166. }
  167. },
  168. //停止录音
  169. recStop() {
  170. RecordApp.Stop((arrayBuffer, duration, mime) => {
  171. //全平台通用:arrayBuffer是音频文件二进制数据,可以保存成文件或者发送给服务器
  172. //App中如果在Start参数中提供了stop_renderjs,renderjs中的函数会比这个函数先执行
  173. //注意:当Start时提供了takeoffEncodeChunk后,你需要自行实时保存录音文件数据,因此Stop时返回的arrayBuffer的长度将为0字节
  174. //如果是H5环境,也可以直接构造成Blob/File文件对象,和Recorder使用一致
  175. // #ifdef H5
  176. var blob = new Blob([arrayBuffer], { type: mime });
  177. const blobUrl = (window.URL || webkitURL).createObjectURL(blob);
  178. this.end({ tempFilePath: blobUrl })
  179. // console.log(blob, (window.URL || webkitURL).createObjectURL(blob));
  180. // var file = new File([arrayBuffer], "recorder.mp3");
  181. // console.log('recStop ', file);
  182. // this.audioUrl = (window.URL || webkitURL).createObjectURL(blob)
  183. //uni.uploadFile({file:file, ...}) //参考demo中的test_upload_saveFile.vue
  184. // #endif
  185. //如果是App、小程序环境,可以直接保存到本地文件,然后调用相关网络接口上传
  186. // // #ifdef APP || MP-WEIXIN
  187. // RecordApp.UniSaveLocalFile("recorder.mp3", arrayBuffer, (savePath) => {
  188. // console.log(
  189. // savePath
  190. // ); //app保存的文件夹为`plus.io.PUBLIC_DOWNLOADS`,小程序为 `wx.env.USER_DATA_PATH` 路径
  191. // //uni.uploadFile({filePath:savePath, ...}) //参考demo中的test_upload_saveFile.vue
  192. // }, (errMsg) => { console.error(errMsg) });
  193. // // #endif
  194. this.showRecorder = false;
  195. }, (msg) => {
  196. console.error("结束录音失败:" + msg);
  197. });
  198. }
  199. },
  200. }