发明创造名称:一种唇语输入方法和系统
外观设计名称:
决定号:189355
决定日:2019-09-11
委内编号:1F263510
优先权日:
申请(专利)号:201510200486.8
申请日:2015-04-24
复审请求人:北京旷视科技有限公司 北京迈格威科技有限公司
无效请求人:
授权公告日:
审定公告日:
专利权人:
主审员:戴丽娟
合议组组长:段小晋
参审员:刘博
国际分类号:G06F3/01
外观设计分类号:
法律依据:专利法第22条第3款
决定要点
:如果一项权利要求的技术方案与最接近的现有技术相比存在多个区别技术特征,对于上述多个区别技术特征其中之一,本领域技术人员没有动机针对该最接近的现有技术作出改进以实现该区别技术特征,且该区别技术特征使得权利要求的技术方案具备有益的技术效果,则该项权利要求的技术方案相对于现有技术具备创造性。
全文:
本复审请求涉及申请号为201510200486.8,名称为“一种唇语输入方法和系统”的发明专利申请(下称本申请)。申请人于2017年07月27日由北京旷视科技有限公司、北京小孔科技有限公司变更为北京旷视科技有限公司、北京迈格威科技有限公司。本申请的申请日为2015年04月24日,公开日为2015年07月29日。
经实质审查,国家知识产权局原审查部门于2018年07月02日发出驳回决定,驳回了本申请,引用的对比文件为:
对比文件1:CN103092329A,公开日为2013年05月08日;
对比文件2:“卷积神经网络的并行化研究”,凡保磊,《中国优秀硕士学位论文全文数据库 信息科技辑》,第11期,公开日为2013年11月15日。
驳回的具体理由是:独立权利要求1和对比文件1的区别技术特征为:(1)该权利要求使用视频中每帧图像作为图像特征,即处理每帧图像,而对比文件1中仅仅处理的是关键帧;(2)步骤S203的具体实现过程不同,采用的语言模型不同:该权利要求的步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;而对比文件1则采用“口型模板库”实现。基于该区别技术特征可以确定,该权利要求相对于对比文件1实际解决的技术问题均为如何提高识别的准确性。其中,区别技术特征(1)为本领域常规技术手段,区别技术特征(2)中部分被对比文件2公开,其余部分为本领域公知常识,因此,权利要求1相对于对比文件1、对比文件2和本领域的公知常识的结合不具备专利法第22条第3款规定的创造性;从属权利要求2-4的附加技术特征或者被对比文件1公开或者属于本领域公知常识,因此均相对对比文件1、对比文件2和本领域的公知常识的结合不具备专利法第22条第3款规定的创造性;独立权利要求5是与方法权利要求1对应一致的装置权利要求,基于相似的理由,权利要求5相对对比文件1、对比文件2和本领域的公知常识的结合不具备专利法第22条第3款规定的创造性;从属权利要求6-7的部分附加技术特征均属于本领域公知常识,且用于唇语输入系统是本领域技术人员容易想到的。因此相对于对比文件1、对比文件2和本领域的公知常识的结合不具备专利法第22条第3款规定的创造性。驳回决定所依据的文本为:申请日2015年04月24日提交的说明书第1-89段、说明书附图图1-3、说明书摘要、摘要附图;2018年03月13日提交的权利要求第1-7项。驳回决定所针对的权利要求书如下:
“1. 一种唇语输入方法,其特征在于,包括如下步骤:
步骤S100:通过视频采集模块捕捉用户做出与待输入内容的发音相对应的口型时的嘴唇动作的视频;
步骤S200:对所述视频中的用户的嘴唇动作进行分析,识别出与用户的口型对应的语言信息;
步骤S300:将所述语言信息输入待输入装置;
所述步骤S200包括:
步骤S201:确定所述视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点;
步骤S202:跟踪每帧图像之间所述关键点的位置变化,得到每帧图像中所述关键点的特征向量;
步骤S203:基于所述特征向量,通过事先确定的语言模型识别出与用户的口型对应的语言信息;
所述步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;所述神经元网络的结构包括:输入层,接受特征向量序列;卷积层,对输入向量进行平滑和提取特征;反馈层,通过联系之前和之后的输入特征,对当前输入特征进行提取;全连接层,对特征进行进一步抽象;输出层,输出最终的判断结果。
2. 如权利要求1所述的方法,其特征在于,所述步骤S201基于级联回归的方法,利用事先训练好的线性模型实现。
3. 如权利要求1或2所述的方法,其特征在于,所述步骤S200包括:
对所述视频中的用户的嘴唇动作进行分析以识别出与用户的口型对应的初步语言信息;
自动对所述初步语言信息的合理性进行判断并对不合理的内容进行修正以得到与用户的口型对应的语言信息。
4. 如权利要求1或2所述的方法,其特征在于,在所述步骤S300中,在将所述语言信息输入待输入装置之前、同时或之后,显示所述语言信息对应的文字内容。
5. 一种唇语输入系统,其特征在于,包括视频采集模块、唇语识别模块和输入模块;其中,所述视频采集模块用于采集捕捉用户做出与待输入内容的发音相对应的口型时的嘴唇动作的视频;所述唇语识别模块用于对所述视频中的用户的嘴唇动作进行分析,识别出与用户的口型对应的语言信息;所述输入模块用于将所述语言信息输入到待输入装置;
所述唇语识别模块执行如下操作:
确定所述视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点;
跟踪每帧图像之间所述关键点的位置变化,得到每帧图像中所述关键点的特征向量;
基于所述特征向量,通过事先确定的语言模型识别出与用户的口型对应的语言信息;该操作基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;所述神经元网络的结构包括:输入层,接受特征向量序列;卷积层,对输入向量进行平滑和提取特征;反馈层,通过联系之前和之后的输入特征,对当前输入特征进行提取;全连接层,对特征进行进一步抽象;输出层,输出最终的判断结果。
6. 如权利要求5所述的系统,其特征在于,还包括唇语识别自动修正模块,用于自动对唇语识别模块识别出的语言信息的合理性进行判断以及对不合理的内容进行修正。
7. 如权利要求5所述的系统,其特征在于,还包括唇语识别人工修正模块,用于对唇语识别模块识别出的语言信息对应的文字进行显示以及人工修正。”
申请人(下称复审请求人)对上述驳回决定不服,于2018年10月16日向国家知识产权局提出了复审请求,仅提交了意见陈述书,并未修改申请文本。复审请求人认为:权利要求1和对比文件1的区别包括:(1)权利要求1步骤S201中使用视频中每帧图像作为图像特征,即处理每帧图像,而对比文件1中仅仅处理的是关键帧;(2)权利要求1步骤S202是得到每帧图像中所述关键点的特征向量,对比文件1是计算特征点之间的距离作为提取的特征向量;(3)步骤S203的具体实现过程不同,采用的语言模型不同:该权利要求的步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;而对比文件1则采用“口型模板库”实现。因此,权利要求1和对比文件1对用户的嘴唇动作进行分析从而识别出与用户口型对应的语言信息的过程是存在实质性区别的。对比文件2公开了卷积神经网络的基本结构,但没有公开使用卷积神经网络进行唇语的识别;并且,对比文件2中没有公开含有“反馈层”的神经网络。权利要求1中的回馈式深度人工神经网络重要的是还包括反馈层,反馈层通过联系之前和之后的输入特征,对当前输入特征进行提取,之后的特征反馈到前面的处理层实现了反馈的效果,这样能够处理视频序列,而不仅仅是处理关键帧。因此,对比文件2不存在用于对比文件1以解决其技术问题的启示。权利要求1-7具备创造性。
经形式审查合格,国家知识产权局于2018年11月01日依法受理了该复审请求,并将其转送至原审查部门进行前置审查。
原审查部门在前置审查意见书中认为:(1)参见权利要求1的相关评述,神经网络方法属于智能识别领域中的常规建模方法,其广泛应用于唇语识别中(相关佐证参见对比文件3-7的相关评述),且神经网络中基本单元为神经元,其具有可学习性(即可被训练),这属于本领的公知常识。因此,在基于神经网络模型实现唇语识别时,本领域技术人员容易想到语言模型为训练好的神经元网络。本申请权利要求1公开了基于回馈式深度人工神经网络的方法实现,即“所述神经元网络的结构包括:输入层,接受特征向量序列;卷积层,对输入向量进行平滑和提取特征;反馈层,通过联系之前和之后的输入特征,对当前输入特征进行提取;全连接层,对特征进行进一步抽象;输出层,输出最终的判断结果”,上述神经元网络的结构属于深度学习领域的公知结构,该结构具有通用性,可应用于各种类型的图像处理中,属于公知常识范畴,将该公知结构用于唇语图像处理中,本领域技术人员无需付出创造性劳动即可实现,且并不会带来预料不到的技术效果;此外,回馈式深度人工神经网络属于一种常规的神经网络,该网络具有反馈层,这属于神经网络领域的公知常识,其广泛应用于图像处理领域,且反馈层通过联系之前和之后的输入特征对当前输入特征进行提取,具有校正和提高准确度的技术效果;(3)复审请求人意见陈述中关于“关键点的特征向量”的描述仅记载在说明书中,并未记载在权利要求书中,也不能从权利要求书中直接地、毫无疑义地得出,故不予考虑。即使复审请求人将上述描述加入权利要求书中,也不构成本申请具备创造性的理由,因为基于图像像素值得到的特征向量,属于图像处理过程中较为常规的中间数据,其获取方式属于本领域的公知常识。参见权利要求1的相关评述,对比文件1公开了“关键点的特征向量”。因而坚持原驳回决定。
随后,国家知识产权局成立合议组对本案进行审理。
合议组于2019年04月03日向复审请求人发出复审通知书,指出:权利要求1-7相对对比文件1、对比文件2和本领域的常用技术手段的结合不具备专利法第22条第3款规定的创造性。同时,对于复审请求人提交复审请求时的陈述意见,合议组指出:复审请求人在意见陈述书中指出的区别技术特征(1)和(2)都是本领域为了提升唇语识别的准确度而常用的技术手段;对于区别技术特征(3),虽然对比文件2没有公开使用卷积神经网络进行唇语的识别以及含有“反馈层”的神经网络,但神经网络方法用于智能识别领域是本领域公知的常规建模方法,其广泛用于唇语识别领域是本领域公知的,同时反馈式人工神经网络是本领域公知的一种神经网络方法,并对上述两点公知常识的内容进行了佐证。因此,本领域技术人员有动机进一步将对比文件2公开的卷积神经网络结合回馈式神经网络中的反馈层用于实现该权利要求的唇语识别,合议组对复审请求人的意见不予支持。
复审请求人于2019年05月17日提交了意见陈述书,并提交了权利要求书的修改替换页,包括权利要求第1-7项,其中在独立权利要求1和5中增加技术特征“将所述特征向量合并成特征向量序列”。复审请求人认为:权利要求1的步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络,处理的是视频序列中提取的特征序列,识别的是动态的过程;而对比文件1则采用“口型模板库”实现。其中,权利要求1使用了视频中每帧图像作为图像特征,与此不同的是,对比文件1中利用关键帧采集技术获得关键帧,并将提取的关键帧序列送入图像预处理单元进行处理,人的说话过程是一个动态的过程,仅仅截取一个关键帧进行图像层面的口型提取,不能区分近似词,而本申请正是出于这种考虑,才将完整视频进行特征抽取,从而识别完整的唇部动作;同时,本申请中用于识别的特征向量是在图像中提取关键点的特征向量,该特征向量是基于该关键点本身提取出来的,是图像特征,是基于图像像素值得到的特征,而不仅仅是该关键点与其他关键点之间的位置关系,而在对比文件1中,是将关键帧进行图像二值化,得到的特征信息仅仅是几个关键点的坐标位置信息,完全不同于本申请权利要求1中的关键点的特征向量;同时,对比文件2公开了卷积神经网络的基本结构,但没有公开使用卷积神经网络进行唇语的识别,本领域技术人员根据其公开的内容不能知道如何利用神经网络实现唇语输入,并且,对比文件2中没有公开含有“反馈层”的神经网络,本申请权利要求1中的反馈层通过联系之前和之后的输入特征,对当前输入特征进行提取,之后的特征反馈到前面的处理层实现了反馈的效果,这样能够处理视频序列,将每个图像帧都进行处理,从而有效地提高唇语识别及输入的准确率。因此,修改后的权利要求1-7具备创造性。此次提交的独立权利要求1和5如下:
“1. 一种唇语输入方法,其特征在于,包括如下步骤:
步骤S100:通过视频采集模块捕捉用户做出与待输入内容的发音相对应的口型时的嘴唇动作的视频;
步骤S200:对所述视频中的用户的嘴唇动作进行分析,识别出与用户的口型对应的语言信息;
步骤S300:将所述语言信息输入待输入装置;
所述步骤S200包括:
步骤S201:确定所述视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点;
步骤S202:跟踪每帧图像之间所述关键点的位置变化,得到每帧图像中所述关键点的特征向量;
步骤S203:基于所述特征向量,将所述特征向量合并成特征向量序列,通过事先确定的语言模型识别出与用户的口型对应的语言信息;
所述步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;所述神经元网络的结构包括:输入层,接受所述特征向量序列;卷积层,对输入向量进行平滑和提取特征;反馈层,通过联系之前和之后的输入特征,对当前输入特征进行提取;全连接层,对特征进行进一步抽象;输出层,输出最终的判断结果。
5. 一种唇语输入系统,其特征在于,包括视频采集模块、唇语识别模块和输入模块;其中,所述视频采集模块用于采集捕捉用户做出与待输入内容的发音相对应的口型时的嘴唇动作的视频;所述唇语识别模块用于对所述视频中的用户的嘴唇动作进行分析,识别出与用户的口型对应的语言信息;所述输入模块用于将所述语言信息输入到待输入装置;
所述唇语识别模块执行如下操作:
确定所述视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点;
跟踪每帧图像之间所述关键点的位置变化,得到每帧图像中所述关键点的特征向量;
基于所述特征向量,将所述特征向量合并成特征向量序列,通过事先确定的语言模型识别出与用户的口型对应的语言信息;该操作基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;所述神经元网络的结构包括:输入层,接受所述特征向量序列;卷积层,对输入向量进行平滑和提取特征;反馈层,通过联系之前和之后的输入特征,对当前输入特征进行提取;全连接层,对特征进行进一步抽象;输出层,输出最终的判断结果。”
在上述程序的基础上,合议组认为本案事实已经清楚,可以作出审查决定。
二、决定的理由
审查文本的认定
复审请求人于2019年05月17日答复复审通知书的意见陈述书时,提交了权利要求修改替换页,包括权利要求第1-7项,上述修改符合专利法第33条以及专利法实施细则第61条第1款的规定。因此,本复审决定针对的文本为:申请日2015年04月24日提交的说明书第1-89段、说明书附图图1-3、说明书摘要、摘要附图;2019年05月17日提交的权利要求第1-7项。
关于专利法第22条第3款
专利法第22条第3款规定:创造性,是指与现有技术相比,该发明具有突出的实质性特点和显著的进步,该实用新型具有实质性特点和进步。
如果一项权利要求的技术方案与最接近的现有技术相比存在多个区别技术特征,对于上述多个区别技术特征其中之一,本领域技术人员没有动机针对该最接近的现有技术作出改进以实现该区别技术特征,且该区别技术特征使得权利要求的技术方案具备有益的技术效果,则该项权利要求的技术方案相对于现有技术具备创造性。
在本复审决定中引用驳回决定中所引用的对比文件1和2作为现有技术,即:
对比文件1:CN103092329A,公开日为2013年05月08日;
对比文件2:“卷积神经网络的并行化研究”,凡保磊,《中国优秀硕士学位论文全文数据库 信息科技辑》,第11期,公开日为2013年11月15日。
2.1、关于权利要求1的创造性
权利要求1要求保护一种唇语输入方法,对比文件1公开了一种基于唇读技术的唇语输入方法,并具体公开了如下技术特征(参见说明书第[0010]-[0072]段):(A)视频采集单元通过摄像头获取只包含用户唇部口型变化的唇动视频序列(相当于“步骤S100:通过视频采集模块捕捉用户做出与待输入内容的发音相对应的口型时的嘴唇动作的视频”);(B)视频解码单元将输入的唇动视频利用关键帧采集技术获取视频流中具有代表性的关键帧,并将提取的关键帧序列(归一化的唇部色彩静态图片)送入图像预处理单元;(C)图像预处理单元对上一单元获得的关键帧图像,利用OpenCV库函数进行灰度化和中值滤波处理,而后利用大津法获得的动态阈值对图片进行二值化处理,最后对图片进行扫描去噪获得规格化的唇部二值化图片;(D)特征提取单元针对经过图像处理后的规格化二值化图片,利用模板法进行唇部特征提取,获得表示唇部特征的特征向量(相当于“步骤S200中的对所述视频中的用户的嘴唇动作进行分析”);(E)口型模板库是预先建立的用于存储标准口型特征向量的模块,储存了先期试验中采集的标准口型模板,包括所有汉语拼音字母发音时的唇动图像(单张或多张)样本及针对唇动图像利用模板法提取的特征向量;(F)唇语识别单元对处理后的规格化二值化图像进行识别,从特征提取单元中获得序列中每张图片的特征向量,从模板库索引得到匹配的汉语拼音字母序列(汉语拼音字母序列属于一种语言信息,故相当于“识别出与用户的口型对应的语言信息”)输入文字输出单元(文字输出单元所对应的装置即输入装置,故将汉语拼音字母序列输入文字输出单元,相当于“步骤S300:将所述语言信息输入待输入装置”);(G)文字输出单元对汉语拼音字母序列进行智能识别,在用户协助选取所需内容之后,输出最终结果。其中,利用系统摄像头定位至人的唇部,对仅包含说话者唇部的唇动视频进行采集,利用关键帧提取技术获得视频流中的关键帧图像,处理得到一张规格化的唇部二值化图片,将嘴唇轮廓抽象为一个数学模型,用若干曲线或特殊点集逼近唇的实际位置。图2为特征点提取图,如图2所示,在进行特征向量提取时首先需要找到的特征点,之后计算特征点之间的距离作为提取的特征向量,将从处理后的图片中获取的特征向量与汉语拼音字母口型模板库(相当于“事先确定的语言模型”)中的模板进行匹配从而获得口型所代表的拼音字母(相当于“步骤S203:基于所述特征向量,通过事先确定的语言模型识别出与用户的口型对应的语言信息”)。
由此可见,权利要求1和对比文件1的区别在于:(1)权利要求1确定视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点,而对比文件1处理的仅仅处理的是关键帧;权利要求1跟踪每帧图像之间关键点的位置变化,得到每帧图像中关键点的特征向量,基于特征向量,将特征向量合并成特征向量序列,而对比文件1是计算特征点之间的距离作为提取的特征向量;(2)步骤S203的具体实现过程不同,采用的语言模型不同:该权利要求的步骤S203基于回馈式深度人工神经网络的方法实现,所述语言模型为训练好的神经元网络;而对比文件1则采用“口型模板库”实现。基于上述区别技术特征可以确定,该权利要求实际要解决的技术问题为对动态唇部动作信息进行完整准确地分析和准确地识别。
对于区别技术特征(2),对比文件2公开了一种卷积神经网络,并具体公开了以下技术特征(参见正文第11-16页):在卷积神经网络的信息流前向传播过程中,卷积层首先提取输入中的初级基本特征(其必然存在一“输入层”),形成若干特征图(相当于“卷积层对输入量进行提取特征”),然后子采样层降低特征图的分辨率,这时网络获取了输入中的高阶的不变性的特征;然后,这些高阶不变性特征前向反馈到全连接神经网络,由全连接神经网络对这些特征进行分类(实现该分类的层相当于“全连接层,对特征进行进一步抽象”);最终结果由输出层向外界输出(相当于“输出层,输出最终的判断结果”)。由于神经网络方法用于智能识别领域是本领域公知的常规建模方法,因此本领域技术人员有动机应用对比文件2公开的卷积神经网络实现该权利要求的唇语识别。尽管对比文件2并未公开具有反馈层的回馈式深度人工神经网络,但是由于回馈式深度人工神经网络是本领域公知的一种人工神经网络,且由于回馈式神经网络能够实现通过联系之前和之后的输入特征对当前输入特征进行提取,能够提升智能识别的准备度。因此,本领域技术人员有动机进一步将对比文件2公开的卷积神经网络结合回馈式神经网络中的反馈层用于实现该权利要求的唇语识别。同时,卷积层对输入向量进行平滑是图像处理常用的技术手段。
对于区别技术特征(1),对比文件1是用“口型模板库”来实现唇语识别,仅仅处理关键帧,处理方式与本申请完全不同,本申请是对视频的每一帧都进行处理,是对完整视频进行特征提取,能够识别完整的唇部动作,从而使得唇部动作分析完整准确;同时,本申请对特征向量的提取是提取每帧图像关键点的特征向量,是基于图像像素值得到的特征,并将特征向量合并成特征向量序列,从而使得唇部动作分析完整准确,而对比文件1得到的特征信息仅仅是几个关键点的坐标位置信息,完全不同于权利要求1中关键点的特征向量,综上所述,权利要求1与对比文件1相比,在唇语识别上具有完全不同的处理流程和架构,本领域技术人员在对比文件1的基础上没有动机对对比文件1进行改进以实现上述区别技术特征(1)。同时如前所述,对比文件2涉及的是卷积神经网络的基本结构,其并未公开上述区别技术特征(1)。进一步,区别技术特征(1)也不是本领域的常规技术手段,不属于本领域的公知常识。同时,上述区别技术特征通过处理唇部动作的每帧图像使得对动态唇部动作视频进行完整地特征提取,并形成特征向量序列,从而实现了对动态唇部动作信息进行完整准确地分析,获得了有益的技术效果。
因此,权利要求1的技术方案相对于对比文件1、对比文件2和本领域的公知常识的结合具备专利法第22条第3款规定的创造性。
2.2 关于权利要求2-4的创造性
权利要求2-4直接或间接引用了权利要求1,在权利要求1具备创造性的情况下,权利要求2-4相对于对比文件1、对比文件2和本领域的公知常识的结合也具备专利法第22条第3款所规定创造性。
2.3 关于权利要求5的创造性
权利要求5要求保护一种唇语输入系统,上述权利要求是与方法权利要求1对应一致的装置权利要求。参照在前权利要求的评述,基于相似的理由,权利要求5的技术方案相对对比文件1、对比文件2和本领域的公知常识的结合具备专利法第22条第3款规定的创造性。
2.4 关于权利要求6-7的创造性
权利要求6-7直接引用权利要求5,在权利要求5具备创造性的情况下,权利要求6-7相对于对比文件1、对比文件2和本领域的公知常识的结合也具备专利法第22条第3款所规定创造性。
3、对驳回决定和前置审查相关意见的评述
复审请求人于2019年05月17日提交了修改的权利要求1-7。在前置审查意见中,原审查部门指出“关键点的特征向量”的描述仅记载在说明书中,并未记载在权利要求书中而在权利要求1中明确记载了“跟踪每帧图像之间的所述关键点的位置变化,得到每帧图像中所述的关键点的特征向量”。对比文件1、2都没有公开独立权利要求中的技术特征“确定视频中的每帧图像中嘴唇的位置,并提取嘴唇上的关键点,跟踪每帧图像之间关键点的位置变化,得到每帧图像中关键点的特征向量,基于特征向量,将特征向量合并成特征向量序列”,同时,对比文件1仅涉及处理关键帧和得到的特征信息仅仅是几个关键点的坐标位置信息,完全不同于权利要求1,本领域技术人员在对比文件1的基础上没有动机对对比文件1进行改进以实现上述区别技术特征,同时,对比文件2也没有给出将上述区别技术特征结合到对比文件1的技术启示;同时,也没有证据表明上述技术特征为本领域公知常识。并且上述技术特征使得权利要求1所要求保护的技术方案实现了对动态唇部动作信息进行完整准确地分析。因此修改后的权利要求书已经克服了驳回决定和前置审查相关意见中指出的权利要求不具备创造性的缺陷。
三、决定
撤销国家知识产权局于2018年07月02日对本申请作出的驳回决定。由国家知识产权局原审查部门以下述文本为基础继续进行审批程序:
复审请求人于申请日2015年04月24日提交的说明书第1-89段、说明书附图图1-3、说明书摘要、摘要附图;
复审请求人于2019年05月17日提交的权利要求第1-7项。
如对本复审请求审查决定不服,根据专利法第41条第2款的规定,复审请求人可以自收到本决定之日起三个月内向北京知识产权法院起诉。
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。