`
zdb_cn
  • 浏览: 122291 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Lucene 分词 TokenStream 取 Token

阅读更多

Lucene 分词  TokenStream 取 Token

TokenStream tokenStream =  
analyzer.tokenStream("content", new StringReader(text));
//TokenStream 遍历  3.5
String s1 = "";
String s2 = "";
while(tokenStream.incrementToken()) {
	//AttributeImpl ta = new AttributeImpl();  
        CharTermAttribute charTermAttribute = tokenStream.getAttribute(CharTermAttribute.class);  
        //TermAttribute ta = ts.getAttribute(TermAttribute.class);  
        s2 = charTermAttribute.toString() + " ";
        System.out.println(s2);
        s1 += s2;  
}
	System.out.println("all = " + s1);
 
分享到:
评论

相关推荐

    Lucene-Demo.rar Lucene分词的demo

    本压缩包的主要内容是Lucene分词器的demo版本,可以导入到程序中直接使用,包含Lucene分词使用的pom文件,使用前请注意修改存储地址。

    lucene分词测试代码

    用java写的图形分词测试的小东西,用的分词器是: 来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器,其使用“正向全切分算法”,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I...

    Lucene中文分词器包

    来自“猎图网 www.richmap.cn”基于IKAnalyzer分词算法的准商业化Lucene中文分词器。 1. 正向全切分算法,42万汉字字符/每秒的处理能力(IBM ThinkPad 酷睿I 1.6G 1G内存 WinXP) 2. 对数量词、地名、路名的...

    lucene.NET 中文分词

    lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮 lucene.NET 中文分词 高亮

    简单的LUCENE分词

    在JAVA下,用lucene的内置分词功能对XML文件进行分词,并取消无用词

    Lucene分词器资源包

    压缩包内含有Lucene分词时所需要的jar包,可以添加到本地maven当中使用,但不含demo,如需使用Lucene的demo,还请下载Lucene-Demo.rar

    Lucene4.X实战类baidu搜索的大型文档海量搜索系统-22.Lucene分词器3 共4页.pptx

    20.Lucene分词器1 共3页 21.Lucene分词器2 共9页 22.Lucene分词器3 共4页 23.Lucene项目实战1 共6页 24.Lucene项目实战2 共6页 25.Lucene项目实战3 共6页 26.Lucene项目实战4 共6页 27.Lucene项目实战5 共5页 28....

    Lucene分词与查询详解

    Lucene分词与查询详解。这是一个完整的实例,希望对大家的开发学习有帮助!!!

    lucene分词包

    lucene自带的中文分词器,将jar放入编译路径即可使用

    google,lucene分词包

    google ,lucene分词应该是最好的分词工具

    自己写的一个基于词库的lucene分词程序--ThesaurusAnalyzer

    自己写的一个基于词库的lucene分词程序--ThesaurusAnalyzer

    java lucene 实现分词和词干抽取

    用java实现的,利用了lucene里面的standardAnalyzer分析器实现的分词,可以去停用词,再利用波特算法实现 词干提取 最后排序 和词频统计输出

    Lucene与中文分词技术的研究及应用

    Lucene与中文分词技术的研究及应用Lucene与中文分词技术的研究及应用Lucene与中文分词技术的研究及应用

    Lucene中文分词源码详解

    Lucene,作为一种全文搜索的辅助工具,为我们进行条件搜索,无论是像Google,Baidu之类的搜索引 擎,还是论坛中的搜索功能,还是其它C/S架构的搜索,都带来了极大的便利和比较高的效率。本文主要是利用Lucene对MS Sql...

    Lucene的中文分词方法设计与实现

    本文设计实现了一个中文分词模块,其主要研究目的在于寻找更为有效的中文词汇 处理方法,提高全文检索系统的中文处理能力.整个模块基于当前最流行的搜索引擎架构 Lucene,实现了带有歧义消除功能的正向最大匹配算法...

    基于lucene的分词

    java代码,基于Lucene和mysql的简单的字符串匹配分词系统

    Lucene中文分词器组件

    Lucene中文分词器组件,不错的。

    Lucene3.0分词系统.doc

    Lucene3.0分词系统.doc

    Lucene.Net+盘古分词C# Demo

    Lucene.Net+盘古分词是一个常见的中文信息检索组合。但是随着盘古分词停止更新,与Lucene.Net3.0无法兼容。为了使得大家少走弯路,本人利用Lucene.Net2.9+盘古分词2.3搭建了一个Demo,里面包含了两个模块的源码,方便...

    IKAnalyzer和Lucene分词工具下载地址+使用方法

    经过修改升级版的IKAnalyzer和Lucene分词工具下载地址,及使用配置方法,经过测试Java代码。

Global site tag (gtag.js) - Google Analytics