json -- 4




概述在实际的项目中,我们的 HTTP 接口通常需要返回某个预先定义的特定模式的 json 字符串,而不是通常用户所看到的 HTML@RestController 就成为了一个非常实用的注解,只需要将 Controller 中相应的函数返回值设置成我们所定义的 json 对应的对象,Spring 会自动将其转换为 Json但是,有时我们并不想要让他返回值为 null 的字段,这要怎么做呢? xml 设置如果我们使用 xml 配置,那么一定会加入 <mvc:annotation-driven/> 来启用 SpringMVC 供能,那么只需要在该节点中加入 <mvc:message-converters> 节点即可进行一些自定义配置:<mvc:annotation-driven> <mvc:message-converters> <bean class="org.springframework.http.converter.json.MappingJackson2HttpMessag
#技术帖    #controller    #技术分享    #java   
概述logstash 之所以强大和流行,与其丰富的过滤器插件是分不开的过滤器提供的并不单单是过滤的功能,还可以对进入过滤器的原始数据进行复杂的逻辑处理,甚至添加独特的新事件到后续流程中 强大的文本解析工具 -- Grokgrok 是一个十分强大的 logstash filter 插件,他可以解析任何格式的文本,他是目前 logstash 中解析非结构化日志数据最好的方式 基本用法Grok 的语法规则是:%{语法 : 语义}  “语法”指的就是匹配的模式,例如使用 NUMBER 模式可以匹配出数字,IP 则会匹配出 127.0.0.1 这样的 IP 地址:%{NUMBER:lasttime}%{IP:client} 默认情况下,所有“语义”都被保存成字符串,你也可以添加转换到的数据类型%{NUMBER:lasttime:int}%{IP:client} 目前转换类型只支持 int 和 float 覆盖 -- overwrite使用 Grok 的 overwrite&nb
#技术帖    #龙潭书斋    #merge    #event   
概述从 Logstash 1.3.0 开始引入了一个新的概念 -- codec(coder 与 decoder 两个单词合成的缩写)在此之前,logstash 的工作流程是:收集纯文本日志 -> filter -> output 过滤而 codec 实现了纯文本日志再处理的功能,整个流程变成了:input -> decode -> filter -> encode -> output这个过程中的 decode 和 encode 就是 codec 所做的事情codec 的引入,使得 logstash 可以更好更方便的与其他有自定义数据格式的运维产品共存,比如 graphite、fluent、netflow、collectd,以及使用 msgpack、json、edn 等通用数据格式的其他产品等之前我们使用的 rubydebug 就是一种 codec Jso
#技术帖    #龙潭书斋    #server    #webserver   
概述Elasticsearch 允许通过一次查询请求执行多个文档的检索,这样可以避免多次请求造成的单独网络开销,相对于一个一个的检索,这样的效率更高 检索多个文档 -- mget APImget API 简介mget API 参数是一个 docs 数组,每个节点顶一个一个文档的 _index、_type、_id、_source GET /_mget { "docs" : [ { "_index" : "website", "_type" : "blog", "_id" : 2 }, { "_index" : "website", "_type" : "page", "_id" : 1, "_source" : "views" } ] }  返回包体返回的响应包体也包含一个 doc
#技术帖    #技术分享    #存储    #api   



京ICP备15018585号