web实现语音识别
计算机识别人类的语音要靠编译器,编译器是怎么做的呢?
计算机识别人类的语音要靠编译器,编译器是怎么做的呢?
谢谢邀请,
这个题目要讲的深刻点,还真能讨论白天,还涉及到软件开发的发展历程。无论是文字还是视频或者再或者语音最终都会转化成二进制的格式,这都是冯诺依曼计算机体系结构。
编译器只是把这些逻辑代码编译成计算机能识别的二进制文件,最初的计算机的编程几乎就是最原始的0101的组合而作,随着大家的努力从汇编,再到C语言,再到现在的C 编程语言,加上现在大行其道的java,以及争议最大的编程语言php,开发软件越来越通俗化,以至于很多人做了很多年都不知道底层语言是如何工作的,分工也精细了。
最近很多人说到底层语言过时了之类的语言,特别是对于C语言,现在操作系统的底层语言实现大部分都是C语言,底层驱动,通讯类的编程基本上都有其影子。
只不过经过多年的发展,底层很多的东西已经成型,相对来说工作机会就少了许多。但是并不代表没有公司需要了,工作的要求相对高了一些。造成了一种底层语言找不到工作的假象,这点在公司招聘员工的时候体现出来了,找web后台开发的一大批投简历的,但是招嵌入式的几乎找不到,大家都忙着培训速成品了。
觉得不错就点个赞
语音助手需要什么编程语言?
语音助手可以分为几个步骤,语音的输入,语音分析,语音输出,输入和输出是需要依赖硬件设备的,而语音分析这里需要使用NLP技术,自然语言处理是人工智能的一个分支,Java,C,Python都可以实现的,现在人工智能方面比较火的是Python。
一个功能的实现包含不仅仅一个部分,其中涉及很多环节。
siri、yoyo、小艺等语音助手是一项涉及多个模块的集成功能,其中主要的模块有:
UI基础算法算法调度后台分别说一下所涉及的语言:
UI
UI属于前端范畴,可选择的预言比较多,web的前端常用的有js、Python等,在系统UI方面可以用JAVA、swift等。
算法
这是一项功能的核心部分,语音识别属于自然语言处理的范畴,这几年也是人工智能非常火热的一个方向,在自然语言处理中使用较多的语言就是Python,这两年也有一些新语言很受重视,比如julia。
后端
一项功能的调度会设计数据库、网络传输等,目前的语音助手 训练和模型都是在云端,所以也会涉及这些方面,所以会用到SQL等语言。