Swagger导入Postman collection
日常开发,团队使用Swagger+API-Mocker进行接口的管理,但是自测接口要一个个添加到postman中,使用postman导入功能,每次导入都会创建新的collection,不能保留以前写的测试用例,例如request body或者url parameter。 因此开发了此工具,用于导入swagger到postman,每次导入会和已有的collection进行合并。
日常开发,团队使用Swagger+API-Mocker进行接口的管理,但是自测接口要一个个添加到postman中,使用postman导入功能,每次导入都会创建新的collection,不能保留以前写的测试用例,例如request body或者url parameter。 因此开发了此工具,用于导入swagger到postman,每次导入会和已有的collection进行合并。
之前在网上看到的,发现paypal默认使用的自己的汇率,对于经常订阅国外服务的我来说,不知不觉损失了好多钱(还好很多服务是信用卡订阅的,只用paypal付过两次),最近买了switch,当然必须关注这个问题!
最近有一个实际的场景需求,需要实时统计总数,于是想到了flink,从入门到实战,整个过程中一直不断的思考实际业务中的问题,在flink中如何解决,与kafka-stream的对比和spark的对比等等。 整个思考和写出demo的过程中,对window机制有了深入的了解,并通过阅读flink java client的源码,了解了其trigger的实现。 本文从实际需求出发,通过提出问题解决问题,结合源码了解flink。
在使用netty的过程中,第一次是理解错线程模型,导致性能测试结果很差。性能提升后,发现netty客户端工具一直存在20%的丢包率,一直以为是工具的问题,没有理会这个问题,但是昨天面试突然想到可能的解决方案,最终定位到了问题
鉴于之前在网上搜索相关spring-kafka的教程,有些杂乱,没有头绪,所以参考Spring-kafka的文章,尝试总结一下。 记得有一句话:不要阅读二手的资料,对于框架来说,最好的资料就是文档(当然不排除有些文档写的不好,没有系统性or不全面),但是spring的文档相对来说都很全面,接触spring-kafka之初,就花了两三天全面读了一下文档,结合coding实践,快速了解了使用和常见的问题,强烈建议遇到问题的情况下,阅读一下原文档,能有一个更系统的认知
本文主要介绍kafka原生api的使用,关于kafka apache官方的文档页面只有简单的说明,不过所有的使用说明都在apache kafka java doc文档页面,每个类的文档都有详细的使用说明,源码中也有详细的注释。
本文主要介绍Kafka中的topic、partition、offset,在kafka java使用consumer时,高级消费和低级消费不同场景下的区别,通过本文,大致能够了解kafka是怎么保证至少消费一次,以及什么情况下会出现重复消费和丢失数据