横瓜文件FTP下载资源搜索服务器主要用来架构图片搜索下载、视频搜索下载、图书搜索下载、软件搜索下载、电影搜索下载、MP3搜索下载、音乐搜索下载、游戏搜索下载等任何资源文件的搜索下载服务器。
最大并发连接数可达1000,仅依靠一台PC服务器,就可同时为1000个客户提供负载均衡的并发下载服务和检索服务,同时支持断点续传下载、迅雷下载、快车下载、IE浏览器HTTP下载等,在负载均衡方面,将迅雷快车等软件的风暴下载技术斩断成普通HTTP下载,实现了全体资源文件公平公正均衡下载的目标,节省了资源服务商带宽,提高了并发数量。
单个被下载文件最大可达2G字节,文件检索数量最多可达2000万个文件,扫描文件速度约2000个文件/秒,分词速度2500万字/分钟,平均检索时间小于0.001秒。
对于10万个文件,可在50秒内完成所有架构工作。
横瓜采用横瓜分布式Map数据库技术、分词索引技术、最大左匹配切词技术、倒排技术、MD5摘要信息抽取技术、新词智能识别技术、硬盘整理加速技术、疑似垂直搜索技术、中文海量词典技术、横瓜HTTP检索服务器web-search缓存技术、HTM转换TXT技术等,横瓜是根据文件名进行检索的,是基于Windows平台的WEB服务器软件系统,用来提供超大文件下载服务和检索服务。
横瓜PC硬件最低配置,需要700M内存、空闲硬盘空间1G、文件系统NTFS。
搜索引擎开发及合作,请联系QQ(601069289)安装说明:1、第一次使用软件前,先执行Setup.exe。
程序add.exe、title.exe为系统内核,勿动!2、架构搜索步骤:先将资源文件放在当前目录下的'file'文件夹('file'文件夹内可以随意组织子文件夹),然后单击websearch.exe程序的按钮“”创建索引“”,若标签提示分词完成,就可单击按钮“”WWW查询“”使用检索查询服务了。
若硬盘文件有变动,可重新单击“”创建索引“”来更新检索系统。
3、websearch.exe可实现扫描、索引、分词等,若要执行HTTP检索下载服务,websearch.exe须挂机。
4、websearch.exe挂机后,从IE中输入“”http://IP地址或域名:7777/“”可检索查询。
在www目录下,存有搜索引擎的主页和LOGO,客户可以根据个性需要自行修改。
5、使用本软件,必须开放端口:7000、7001、70002、70003、70004、7777、77786、本软件使用的基础词典已经用MD5加密封装,用户可以在dic.txt中自由添加新词,新词被添加到dic.txt后,被检索的几率变大。
若不添加新词,也可以被检索到,只是几率稍小些。
7、不得将本软件用于赢利目的、销售他人、非法用途等,否则将会被追究法律责任。
2024/8/7 12:17:16 3.32MB 服务器软件-FTP服务器
1
由于官网下载solr太慢,所以放这里,里面有solr-7.7.3和定时更新solr索引的jar包还有ik中文分词器中文jar包
2024/8/4 8:01:05 164.99MB solr
1
新词发现作为自然语言处理领域的一项基础研究,一直受到学术界和企业界的广泛关注。
将新词发现问题转换为确定词语边界问题。
首先对语料进行中文分词,然后统计"散串",最后提出一种基于词内部结合度和边界自由度的新词发现方法。
通过在大规模语料上进行新词发现实验,验证了该方法的有效性。
今后的研究重点将放在如何有效地识别低频新词上,以提高系统的整体性能。
1
以hadoop、hbase为基础,hdfs存储文件,hbase存储相应索引,使用分词技术,实现视频的存储及索引,这是一个简单的web项目,欢迎交流学习:770838433
2024/7/26 11:52:29 31.8MB Hbase Hadoop 视频存储 海量
1
最新中文分词词库整理,中文分词,词库,四十万可用搜狗txt词库,30万中文分词词库,百度分词词库,四十万汉语大词库
2024/7/22 12:21:26 6.36MB 中文分词 词库
1
主要是读取文本,然后进行分词、词干提取、去停用词、计算词频,有界面,很实用
2024/7/13 0:43:54 70KB 词频计算
1
lucene全文检索,IKAnalyzer分词jar包,IKAnalyzer2012_u6.jar
1
大数据时代,中文的语义分析变得非常重要,这是一个可以中文分词的小插件,由武大沈阳教授团队开发的。
2024/7/7 6:14:54 8.61MB rost cm
1
Lucene.Net只是一个全文检索开发包,不是一个成型的搜索引擎它提供了类似SQLServer数据库正式版中的全文检索功能的索引库你把数据扔给Lucene.Net,【Lucene.Net只针对文本信息建立索引,所以他只接收文本信息,如果不是文本信息,则要转换为文本信息】它会将文本内容分词后保存在索引库中,当用户输入关键字提交查询时,Lucene.Net从索引库中检索关键字数据,所以搜索速度非常快,适合于用户开发自己站内的搜索引擎Q:分词A:即将"不是所有痞子都叫一毛"文本内容通过分词算法分割成为“不是”“所有”“痞子”“都”“叫”"一毛"。
但是Lucene.Net内置分词算法对中文支持不是很好,以下会使用国内较为流行的分词算法--盘古分词
2024/7/1 18:18:58 2.66MB lucene.net 盘古 分词
1
学习了部分分词原理和方法,做了相应的改进:1、创建了两种词典树,做了性能上的比较2、改进数字词组的分词方法,加入语法的判断3、提供地名词典创建工具。
将地名全名词典分词获得分词后的地名词典,减少词条数目,增加查找速度。
程序用一个中等省会城市测试,模糊查询和精确查询效果都不错。
4、加入地名输入提示的工具。
代码采用C#,为学习成果,尚有很多不完善地方,欢迎交流。
词典数据来源于网络!
2024/6/29 11:03:37 977KB 分词 创建 地名词典 c#
1
共 172 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡