弘一网童(WebPortero)是一款智能化的网页保存工具,集网页抓取、内容识别、网页编辑、格式转换于一体,可以保存网页正文、图片、Flash等
2025/6/30 22:13:56 2.09MB 网页保存
1
特别说明:1、需要在Helper\DapperK3文件中修改连接字符串2、物料ID写死,根据实际情况自行修改.3、需要先regsvr32KDZIP.dll进行注册后才能使用.4、烦请使用x86CPU方式运行.
2025/6/28 9:09:33 1.9MB C# K3 WISE 二次开发
1
Python爬虫抓取东方财富网股票数据并实现MySQL数据库存储,很有参考借鉴意义
2025/6/18 8:08:25 11.22MB python 股票 mySQL 爬虫
1
目录前言1.翻译说明1.在Tomcat中快速上手1.1.开始Hibernate之旅1.2.第一个可持久化类1.3.映射cat1.4.与猫同乐1.5.结语2.体系结构2.1.总览2.2.JMX集成2.3.JCA支持3.SessionFactory配置3.1.可编程配置方式3.2.获取SessionFactory3.3.用户自行提供JDBC连接3.4.Hibernate提供的JDBC连接3.5.可选配置属性3.5.1.SQLDialectsSQL方言3.5.2.外连接抓取(OuterJoinFetching)3.5.3.二进制流3.5.4.自定义CacheProvider3.5.5.事务策略配置3.5.6.绑定SessionFactory到JNDI3.5.7.查询语言替换3.6.Logging3.7.实现NamingStrategy(命名策略)3.8.XML配置文件4.持久化类(PersistentClasses)4.1.POJO简单示例4.1.1.为持久化字段声明访问器(accessors)和是否可变的标志(mutators)4.1.2.实现一个默认的构造方法(constructor)4.1.3.提供一个标识属性(identifierproperty)(可选)4.1.4.建议使用不是final的类(可选)4.2.实现继承(Inheritance)4.3.实现equals()和hashCode()4.4.持久化生命周期(Lifecycle)中的回调(Callbacks)4.5.合法性检查(Validatable)回调4.6.XDoclet标记示例5.O/RMapping基础5.1.映射声明(Mappingdeclaration)5.1.1.Doctype5.1.2.hibernate-mapping5.1.3.class5.1.4.id5.1.4.1.generator5.1.4.2.高/低位算法(Hi/LoAlgorithm)5.1.4.3.UUID算法(UUIDAlgorithm)5.1.4.4.标识字段和序列(IdentitycolumnsandSequences)5.1.4.5.程序分配的标识符(AssignedIdentifiers)5.1.5.composite-id联合ID5.1.6.识别器(discriminator)5.1.7.版本(version)(可选)5.1.8.时间戳(timestamp)(可选)5.1.9.property5.1.10.多对一(many-to-one)5.1.11.一对一5.1.12.组件(component),动态组件(dynamic-component)5.1.13.子类(subclass)5.1.14.连接的子类(joined-subclass)5.1.15.map,set,list,bag5.1.16.引用(import)5.2.Hibernate的类型5.2.1.实体(Entities)和值(values)5.2.2.基本值类型5.2.3.持久化枚举(Persistentenum)类型5.2.4.自定义值类型5.2.5.映射到"任意"(any)类型5.3.SQL中引号包围的标识符5.4.映射文件的模块化(Modularmappingfiles)6.集合类(Collections)映射6.1.持久化集合类(PersistentCollections)6.2.映射集合(MappingaCollection)6.3.值集合和多对多关联(CollectionsofValuesandMany-To-ManyAssociations)6.4.一对多关联(One-To-ManyAssociations)6.5.延迟初始化(延迟加载)(LazyInitializa
2025/6/15 21:44:18 262KB hibernate 教程 hibernate教程
1
对burp的使用,让你轻松抓取https包。
渗透、安全、攻防
2025/6/13 7:32:56 1KB burp
1
御剑扫描器专业版★新增存活预判(当目标无法连接3次自动撤销任务)★新增首页爬虫(只抓取首页的目录进行二次扫描)★新增文件存储(可以保存扫描结果到指定文位置)★新增跳过大小(可以设定要忽略的页面大小,min-max)★新增GET模式关键字词组过滤(使用GET模式和关闭自定义404才会生效,可以忽略包含指定关键词的页面)★默认参数和值初始化更加科学合理(不合理的设置会导致目标产生CC或者漏报)★优化扫描速度(比1.0提升速度大概5-10倍,通过maxspeed参数控制速度最大值)★优化内存占用(1000/s内存占用10-30M左右)
2025/6/12 14:08:13 2.47MB 爬虫
1
使用FME进行网络POI数据抓取。
非编程即可实现,是转换器学习的好助手
1
HttpCanary是一款功能强大的HTTP/HTTPS/HTTP2网络包抓取和分析工具,你可以把他看成是移动端的Fiddler或者Charles,但是HttpCanary使用起来更加地简单容易,因为它是专门为移动端设计的!最重要的是:无需root权限!无需root权限!无需root权限!
1
源码简介分享的是一款搜索引擎源码,百度云盘爬虫源码,Python百度云网盘搜索引擎,爬虫+网站,搜索引擎采用Xunsearch高效搜索,源码很简单,附带安装教程,可二开,这里资源邦免费分享给大家,全自动更新百度云盘内容,全自动采集哦!适用范围百度云网盘搜索引擎源码,百度搜索引擎源码,网盘搜索爬虫源码运行环境PHP+MYSQL+Python测试截图安装说明1、上传源码到网站2、创建名为pan的数据库,编码设为utf-8。
然后导入sql,完成表的创建。
3、config.php文件修改网站标题,描述等信息database.php修改数据库账号,密码等信息4、启动爬虫进入spider/目录,修改spider.py中数据库信息。
__如果你是第一次部署,需运行下面命令,完成做种__pythonspider.py--seed-user上面其实就是抓取百度云热门分享用户的相关信息,然后从他们开始入手爬取数据然后运行pythonspider.py5、安装xunsearch目前使用__xunsearch__作为搜索引擎,后面会更换为elasticsearch。
安装过程请参考(不需要安装,PHPSDK,我已经整合到web里了)http://xunsearch.com/doc/php/guide/start.installation此时爬虫已经开始工作了6、索引数据上面我们完成了爬虫的数据抓取,网站的搭建,但还不能搜索,下面开始最后一步,索引的建立。
进入indexer/目录,在indexer.php中将$prefix,替换为你web的根路径require'$prefix/application/helpers/xs/lib/XS.php';并修改数据库账号密码然后运行python./index.php到此为止程序已全部安装完毕
2025/6/6 16:53:53 1.25MB 爬虫 百度云
1
指定区域连续截图(热键Ctrl+F2)在屏幕指定选择区域(框内),利用热键Ctrl+F2,随时抓取指定区域内的截图,可连续抓取的小工具,自动最小化到任务栏内.
2025/6/6 10:01:43 1.32MB 指定区域 抓图 连续 热键
1
共 295 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡