1 基于 Elasticsearch 的日志系统架构如何面临挑战-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于 Elasticsearch 的日志系统架构如何面临挑战

OSC开源社区 来源:OSC开源社区 2023-08-08 10:21 次阅读

实操 Demo 展示 日志数据蕴含了丰富的信息价值,可帮助企业更好了解系统及业务运行情况,保障系统安全稳定运行。为更好满足日志场景的需求,Apache Doris 在 2.0 版本中引入了多项功能优化:例如增加了倒排索引,支持原生的半结构数据类型,优化了 Text 匹配速度和文本算法等,最终实现相较 Elasticsearch 最高 10 倍的性价比提升。 为了让大家快速使用 Doris 搭建新一代日志分析平台,我们为大家实操展示了 Doris 和 Elasticsearch 性能对比,并演示了基于 Doris 搭建新一代日志分析平台的关键步骤,点击下方视频即可观看。 日志数据是企业大数据体系中重要的组成部分之一,这些数据记录了网络设备、操作系统以及应用程序的详细历史行为,蕴含了丰富的信息价值,在可观测性、网络安全、业务分析等关键业务领域发挥着重要作用,可帮助企业更好了解系统及业务运行情况,及时发现及解决问题,以保障系统安全稳定运行。具体而言,日志数据可以通过以下方式为企业带来价值:

可观测性:日志是可观测性的三大基石(Logging,Metrics,Tracing)之一,其数据规模占比最高,常用于监控告警、故障排查时快速检索、Trace 关联等,可保证系统稳定运行、提升运维效率;

网络安全:日志记录了网络和主机上发生的每一个事件和行为,用于安全分析、调查取证、安全检测等,是提升系统安全性、降低被攻击风险的重要手段;

业务分析:在常见的业务分析中,比如在用户行为分析和用户画像等场景中,通常需要对用户行为日志进行复杂分析,帮助企业了解用户的喜好和行为轨迹,进一步提高用户满意度、促进留存和转化。因此日志不仅用于运维和安全保障,对于业务增长也发挥着不可或缺的作用。

日志数据本质是一系列系统事件的有序记录,其生成方式和使用场景决定了具备以下几个特点:

Schema Free:日志数据最初始的表现形态为非结构化原始日志,以 Free Text 的形式存在,然而非结构化数据是不便于进行聚合统计等分析操作的。如果想对这些数据进行存储分析,就需要先通过 ETL 将非结构化数据加工为结构化表格,再在数据库/数据仓库中进行分析。而在这个过程中,当日志结构发生变化时,还需要对 ETL 和结构化表格进行相应的调整,这就需要研发和 DBA 团队的协助,流程复杂、耗费时间长且执行难度高。在此之后进一步诞生了以 JSON 为主的半结构化日志,日志生成者可以自主增减字段,日志存储系统根据数据调整存储结构。

数据量大:日志数据规模通常非常庞大并生产周期不间断,特别是在大型企业或典型的日志应用中,每天产生的日志数据可达十 TB 或百 TB级别。同时为了满足业务需求或符合监管要求,日志数据往往需要存储半年甚至更长时间,存储总量经常达到 PB 级别,为各企业带来高昂的存储成本。而随着时间的推移,日志数据的价值也在逐渐下降,因此对于日志系统来说,存储成本也变得更加敏感。

实时写入与检索:日志数据常用于故障排查、安全追踪等时效要求较高的场景,因此如果数据写入延迟过高,就无法及时获取最新发生的事件;如果关键字检索响应慢则无法满足工程师、分析师的交互式分析需求。因此对于日志系统而言,要求在高吞吐写入的前提下保证秒级以下的查询响应时间,并能够提供全文检索的能力以及秒级响应的交互式查询能力。

为了应对以上需求、发挥出日志数据的更高价值,业界对于日志场景有不少解决方案,而以 Elasticsearch 为核心的 ELK 体系则是其中典型代表。在此我们以 Elasticsearch 为例,来分享基于 Elasticsearch 的日志系统架构是如何面临挑战。

基于 Elasticsearch 的日志系统典型架构如上图所示,整个系统分为下面几个模块:

日志收集:通过 Filebeat 采集本地的日志文件,写入到 Kafka 消息队列;

日志传输:使用 Kafka 消息队列集中和缓存日志;

日志转换:LogStash 消费 Kafka 中的日志,进行数据过滤、格式转换等操作;

日志存储:LogStash 将日志以 JSON 格式写入 ES 存储中;

日志查询:通过 Kibana 可视化查询 ES 中的日志,或者通过 ES DSL API 发起查询请求;

基于 Elasticsearch 的日志系统架构具有较好的实时日志检索能力,然而该系统在实际应用中也存在一些痛点,如写入吞吐低、存储成本高、不支持复杂查询等问题。

Schema Free 支持不够

Elasticsearch 的 Index Mapping 定义了数据的 Schema,包括字段的名字、数据类型、是否建索引等。

65ff1b0a-3514-11ee-9e74-dac502259ad0.png

Elasticsearch 的 Dynamic Mapping 可以根据写入的 JSON 数据自动增加 Mapping 中的字段,对日志数据的 Schema Free 提供了一定程度的支持,但是也存在明显不足:

Dynamic Mapping 性能差:当遇到脏数据时容易出现大量字段,严重影响系统性能和稳定性。

字段类型固定:当业务类型变更时无法进行修改,为了满足不同的业务需求,用户常常使用 text 类型来兼容,但是 text 类型的查询性能是远不如 integer 等二进制类型的查询性能。

字段的索引固定:无法根据需求自行增加或删除某个字段的索引,灵活性较差。因此用户为了保证查询过滤的速度,通常会在所有字段上都创建索引。而在所有字段上创建索引又会带来写入速度变慢、存储空间增加等新的问题。

分析能力弱

Elasticsearch 开发的 ES DSL(Domain Specific Language,特定领域语言)与大多数工程师、数据分析师熟悉的技术栈差异比较大,这为用户设置了较高的学习和使用门槛,并需要学习大量的多新的概念和语法,即使学会之后还需要经常查阅手册才能写出正确的 DSL 语句。同时,Elasticsearch 生态自成体系、比较封闭,与其他系统如 BI 工具等打通比较困难。更重要的是, Elasticsearch 分析能力较弱,只支持简单的单表分析,不支持多表 JOIN、子查询、视图等复杂分析,无法满足企业日志分析需求。

663b8770-3514-11ee-9e74-dac502259ad0.png

成本高,性价比低

基于 Elasticsearch 的日志系统使用成本较高也是一个被用户长期诟病的问题,成本主要来源于两个方面:

写入的计算成本:Elasticsearch 在写入时要构建倒排索引,会进行分词、倒排表排序等计算密集型操作,CPU 资源占用较大,单核写入性能在 2MB/s 左右。当一个 Elasticsearch 集群的大多数 CPU 资源都被写入消耗时,在遇到写入流量高峰时极易触发写入 Reject,从而导致数据延迟变长、查询速度变慢。

数据的存储成本:为加速检索和分析的速度,Elasticsearch 存储了原始数据正排、倒排索引、Docvalue 列存等多份数据,因此造成存储成本大幅增高,且单副本存储的压缩率整体被限制在 1.5 倍左右,远低于日志数据常见的 5 倍压缩比。

而随着数据和集群规模增长, Elasticsearch 集群还面临一些稳定性问题:

写入不稳定:当遇到写入高峰时,将造成集群负载高的问题,从而影响写入的稳定性。

查询不稳定:由于查询都在内存中处理,大查询容易触发 JVM OOM,进而影响整个集群的写入和查询的稳定性。

故障恢复慢:Elasticsearch 集群在故障后恢复时需要进行 Index 加载等资源占用较大的操作,因此故障恢复时间经常需要数十分钟,对服务可用性和 SLA 提出了很大的挑战。

从以上方案对可知,基于 Elasticsearch 的日志系统架构在应用中无法同时兼顾高吞吐、低存储成本和实时高性能的要求,且不支持复杂查询。那么是否有其他方案可以较好的平衡成本与性能,且能提供更好的分析能力呢?答案是有的。

立志于通过一个系统解决多个场景的数据分析问题、降低复杂技术带来的运维和使用成本,为了更加契合日志数据分析的场景需求,Apache Doris 在 2.0 版本中引入了多项功能优化:例如支持原生的半结构数据类型,优化了 Text 匹配速度和文本算法,从而提升了日志数据导入和查询的性能;增加了倒排索引、以满足字符串类型的全文检索和普通数值/日期等类型的等值、范围检索。最终通过 Benchmark 测试和实际应用验证表明, 基于 Apache Doris 构建的新一代日志分析系统相较于 Elasticsearch 具有最高 10 倍的性价比提升。

基于 Apache Doris 的日志系统典型架构如下图所示,相较于 Elasticsearch 整个系统架构更加开放:

6674f262-3514-11ee-9e74-dac502259ad0.png

更多日志接入方式:Doris 提供了多种日志数据的导入方式。例如支持 LogStash 通过 HTTP Output 将日志推送到 Doris、支持使用 Flink 对日志进行加工后再写入 Doris,支持 Routine Load 和 S3 Load 导入存储在 Kafka 或者对象存储中的日志数据。

统一存储消除数据孤岛:日志数据可以统一存储到 Doris 中,并可以和数仓中其他数据进行关联分析,不再是独立存在的数据孤岛。

开放生态,更强分析能力:Doris 兼容 MySQL 协议,各类数据分析工具或者客户端可以通过 MySQL 连接到 Doris ,包括可观测性系统 Grafana、常见的 BI 分析工具 Tableau 等。应用程序也可以通过 JDBC、ODBC 等标准 API 来连接 Doris ,以进行业务特定的查询分析。后续我们还将完成类似于 Kibana 的可视化日志探索分析系统,进一步提升日志分析的体验。

除此之外,基于 Apache Doris 的日志系统还具备以下几个重要的优势:

原生的半结构化数据支持

为了更好的适应 Text、JSON 格式日志 Schema Free 的特点,Apache Doris 在这两个方面进行了增强:

提供丰富的数据类型:优化已有 Text 的数据类型,通过向量化技术提升字符串查找、正则匹配的性能,通过这些优化实现性能提升 2-10倍;增加 JSON 数据类型,在数据写入对 JSON字符串进行解析并存储成紧凑高效的二进制格式,可使得查询性能提升 4 倍;增加 Array Map 复杂数据类型,将原本使用字符串拼接的复杂类型结构化,进一步提升了存储压缩率和查询性能。

支持 Schema Evolution:与 Elasticsearch 不同的是,Apache Doris 支持根据业务需要对 Schema 进行调整,包括按需在线增减字段、增减索引、更改字段数据类型等。

Apache Doris 推出的 Light Schema Change 功能可以根据数据变化进行毫秒级增减字段:

--增加列,毫秒级返回,立即生效
ALTERTABLElineitemADDCOLUMNl_new_columnINT;

通过 Light Schema Change 还可以按需增加倒排索引,无需为所有字段创建索引,避免不必要的写入和存储开销。Doris 在增加索引时,默认对新写入数据生成索引,并可以对历史数据选择对哪些分区生成索引,用户可灵活控制。

--增加倒排索引,毫秒级返回,新写入数据自动生成索引
ALTERTABLEtable_nameADDINDEXindex_name(column_name)USINGINVERTED;

--历史partition可以按需BUILDINDEX,后台增量生成索引
BUILDINDEXindex_nameONtable_namePARTITIONS(partition_name1,partition_name2);

基于 SQL 的分析引擎

Apache Doris 支持标准 SQL、兼容 MySQL 协议和语法,因此基于 Doris 的日志系统能够使用 SQL 进行日志分析,这使得日志系统具备以下优势:

简单易用:工程师和数据分析师对于 SQL 非常熟悉,经验可以复用,不需要学习新的技术栈即可快速上手。

生态丰富:MySQL 生态是数据库领域使用最广泛的语言,因此可以与 MySQL 生态的集成和应用无缝衔接。Doris 可以利用 MySQL 命令行与各种 GUI 工具、BI 工具等大数据生态结合,实现更复杂及多样化的数据处理分析需求。

分析能力强:SQL 语言已经成为数据库和大数据分析的事实标准,它具有强大的表达能力和功能,支持检索、聚合、多表 JOIN、子查询、UDF、逻辑视图、物化视图等多种数据分析能力。

经过 Benchmark 测试及生产验证,基于 Apache Doris 高性能基础引擎针对日志场景进行优化后,日志系统性价比相对于 Elasticsearch 具有 5-10 倍的提升。

写入吞吐提升:Elasticsearch 写入的性能瓶颈在于解析数据和构建倒排索引的 CPU 消耗。相比之下,Doris 进行了两方面的写入优化:一方面利用 SIMD 等 CPU 向量化指令提升了 JSON 数据解析速度和索引构建性能;另一方面针对日志场景简化了倒排索引结构,去掉日志场景不需要的正排等数据结构,有效降低了索引构建的复杂度。

存储成本降低:Elasticsearch 存储瓶颈在于正排、倒排、Docvalue 列存多份存储和通用压缩算法压缩率较低。相比之下,Doris 在存储上进行了以下优化:去掉正排,缩减了 30% 的索引数据量;采用列式存储和 ZSTD 压缩算法,压缩比可达到 5-10 倍,远高于 Elasticsearch 的 1.5 倍;日志数据中冷数据访问频率很低,Doris 冷热分层功能可以将超过定义时间段的日志自动存储到更低的对象存储中,冷数据的存储成本可降低 70% 以上。

我们在 Elasticsearch 提供的官方性能 Benchmark Rally 的 HTTP Logs 测试集上进行了对比测试。如下图可知,Doris 写入速度是 Elasticsearch 的 5 倍,存储空间减少了 80%,达到 550 MB/s,写入后的数据压缩比接近 1:10、存储空间节省超 80% ,查询耗时下降 57%、查询性能是 Elasticsearch 的 2.3 倍。加上冷热数据分离降低冷数据存储成本,整体相较 Elasticsearch 实现 10 倍以上的性价比提升。

在用户实际场景的验证中,Doris 也表现出了超出预期的性价比优势。例如,某游戏公司最初使用的是 Elasticsearch,通过标准的 ELK 进行日志分析,使用成本非常高。由于存储成本过高,使得该公司在日志数据的合理存储和高效分析受到了很大的限制,无法满足业务需求。而在使用 Doris 搭建日志系统后,所需存储空间仅是 Elasticsearch 的 1/6,极大地降低了存储成本。同时 Doris 的高性能和优秀的分析能力,也使得该公司能够更高效灵活地处理日志数据,并提供更好的业务支持。此外,某安全公司利用 Doris 提供的倒排索引构建了日志分析系统,仅使用原来 1/5 的服务器,承载了 30 万每秒的写入流量,导入及查询速度更快。Doris 的引入,不仅降低了该公司运营成本,也极大地提升了分析的效率及系统稳定性,为业务提供了强有力的支持。

下面为大家介绍基于 Apache Doris 构建新一代日志系统的实践步骤。

首先需要在 Apache Doris 官网下载 2.0 及以上版本:https://doris.apache.org/zh-CN/download,下载完成后参考部署文档进行集群部署:https://doris.apache.org/zh-CN/docs/dev/install/standard-deployment

第一步建表

参考下面的例子建表,关键点如下:

使用 DATETIMEV2 类型的时间字段作为 Key,在查询最新 N 条日志时有明显加速

对经常查询的字段创建索引,对需要全文检索的字段指定分词器 Parser 参数

分区使用时间字段上的 RANGE 分区,开启动态 Partiiton 可按天自动管理分区

分桶使用 RANDOM 随机分桶,使用 AUTO 可让系统根据集群规模和数据量自动计算分桶数量

使用冷热分离配置 log_s3 对象存储和 log_policy_1day 超过 1 天转存 s3 策略

CREATEDATABASElog_db;
USElog_db;

CREATERESOURCE"log_s3"
PROPERTIES
(
"type"="s3",
"s3.endpoint"="your_endpoint_url",
"s3.region"="your_region",
"s3.bucket"="your_bucket",
"s3.root.path"="your_path",
"s3.access_key"="your_ak",
"s3.secret_key"="your_sk"
);

CREATESTORAGEPOLICYlog_policy_1day
PROPERTIES(
"storage_resource"="log_s3",
"cooldown_ttl"="86400"
);

CREATETABLElog_table
(
`ts`DATETIMEV2,
`clientip`VARCHAR(20),
`request`TEXT,
`status`INT,
`size`INT,
INDEXidx_size(`size`)USINGINVERTED,
INDEXidx_status(`status`)USINGINVERTED,
INDEXidx_clientip(`clientip`)USINGINVERTED,
INDEXidx_request(`request`)USINGINVERTEDPROPERTIES("parser"="english")
)
ENGINE=OLAP
DUPLICATEKEY(`ts`)
PARTITIONBYRANGE(`ts`)()
DISTRIBUTEDBYRANDOMBUCKETSAUTO
PROPERTIES(
"replication_num"="1",
"storage_policy"="log_policy_1day",
"deprecated_dynamic_schema"="true",
"dynamic_partition.enable"="true",
"dynamic_partition.time_unit"="DAY",
"dynamic_partition.start"="-3",
"dynamic_partition.end"="7",
"dynamic_partition.prefix"="p",
"dynamic_partition.buckets"="AUTO",
"dynamic_partition.replication_num"="1"
);

第二步:日志导入

Apache Doris 支持多种数据导入方式,对于实时日志数据,推荐 3 种导入方式:

如果日志数据在 Kafka 消息队列中,配置 Doris Routine Load 可从 kafka 中实时拉取数据。

如果之前使用了 Logstash 等工具将日志写入 Elasticsearch,可以选择配置 Logstash 通过 HTTP 接口将日志写入到 Doris 中。

如果是自定义的写入程序,也可以通过 HTTP 接口将日志写入到 Doris 中。

Kafka 导入

将 JSON 格式的日志写入 Kafka 消息队列,创建 Kafka Routine Load,让 Doris 从 Kafka 中主动拉取数据。示例如下,其中property.*配置是非必须的:

--准备好kafka集群和topiclog_topic

--创建routineload,从kafkalog_topic将数据导入log_table表
CREATEROUTINELOADload_log_kafkaONlog_db.log_table
COLUMNS(ts,clientip,request,status,size)
PROPERTIES(
"max_batch_interval"="10",
"max_batch_rows"="1000000",
"max_batch_size"="109715200",
"strict_mode"="false",
"format"="json"
)
FROMKAFKA(
"kafka_broker_list"="host:port",
"kafka_topic"="log_topic",
"property.group.id"="your_group_id",
"property.security.protocol"="SASL_PLAINTEXT",
"property.sasl.mechanism"="GSSAPI",
"property.sasl.kerberos.service.name"="kafka",
"property.sasl.kerberos.keytab"="/path/to/xxx.keytab",
"property.sasl.kerberos.principal"="xxx@yyy.com"
);


创建好 Routine Load 后,可以通过SHOW ROUTINE LOAD查看运行状态。更多使用说明请参考 https://doris.apache.org/zh-CN/docs/dev/data-operate/import/import-way/routine-load-manual。

Logstash 导入

在营收信贷业务过程中,我们会对潜在客户进行广告投放,通过自动获取用户行为日志数据,分析信贷需求来加强营销活动、提升获客效果,达到精准投放的目的。我们借助 Stream Load 自定义的日志采集工具收集用户在小程序或者 App 中的访问日志

配置 Logstash 的 HTTP Output,将数据通过 HTTP Stream Load 发送到 Doris。

1.logstash.yml配置 Batch 攒批条数和时间,用于提升数据写入性能

pipeline.batch.size: 100000
pipeline.batch.delay: 10000

2.testlog.conf日志采集配置文件中增加一个 HTTP Output、URL 配置Doris 的 Stream Load 地址。

目前因为 Logstash 不支持 HTTP 跳转,需要配置 BE 地址,不能用 FE 地址。

Headers 中 Authorization 是http basic auth,用命令echo -n 'username:password' | base64来计算。

Headers 中load_to_single_tablet参数能够减少导入的小文件。

output {
    http {
       follow_redirects => true
       keepalive => false
       http_method => "put"
       url => "http://172.21.0.5:8640/api/logdb/logtable/_stream_load"
       headers => [
           "format", "json",
           "strip_outer_array", "true",
           "load_to_single_tablet", "true",
           "Authorization", "Basic cm9vdDo=",
           "Expect", "100-continue"
       ]
       format => "json_batch"
    }
}

自定义程序导入

参考下面的方式通过 Http Stream Load 接口导入数据到 Doris,关键点如下:

使用basic auth进行 HTTP 鉴权,用命令echo -n 'username:password' | base64来计算

设置http header "format:json",指定数据格式为 JSON

设置http header "read_json_by_line:true",指定每行一个 JSON

设置http header "load_to_single_tablet:true",指定一次写入一个分桶

目前建议写入客户端一个 Batch 100MB~1GB,后续版本会通过服务端 Group Commit 降低客户端 Batch 大小

curl
--location-trusted
-uusername:password
-H"format:json"
-H"read_json_by_line:true"
-H"load_to_single_tablet:true"
-Tlogfile.json
http://fe_host:fe_http_port/api/log_db/log_table/_stream_load

第三步:查询

Doris 支持标准 SQL,可以通过 MySQL客 户端或者通过 JDBC 等方式连接到集群,然后执行 SQL 进行查询。

mysql-hfe_host-Pfe_mysql_port-uroot-Dlog_db

下面是日志分析场景中,常见的几种查询。

查看最新的 10 条数据

SELECT*FROMlog_tableORDERBYtsDESCLIMIT10;

查询 clientip 为 '8.8.8.8'的最新 10 条数据

SELECT*FROMlog_tableWHEREclientip='8.8.8.8'ORDERBYtsDESCLIMIT10;

检索 request 字段中有 error 或者 404 的最新 10 条数据,MATCH_ANY 是 Doris 全文检索的 SQL 语法关键字,匹配参数中任意一个关键字

SELECT*FROMlog_tableWHERErequestMATCH_ANY'error404'ORDERBYtsDESCLIMIT10;

检索 request 字段中有 image 和 faq 的最新 10 条数据,MATCH_ALL 是 Doris 全文检索的 SQL 语法关键字,匹配参数中所有的关键字

SELECT*FROMlog_tableWHERErequestMATCH_ALL'imagefaq'ORDERBYtsDESCLIMIT10;

Apache Doris 针对日志场景进行了多项优化,最终达到存储空间节省超 80% 、写入速度是 Elasticsearch 的 5 倍、查询性能是 Elasticsearch 的 2.3 倍。在冷热数据分层功能加持下,整体相较 Elasticsearch 实现 10 倍以上的性价比提升。这些都表明,Apache Doris 已经足够支撑各企业构建新一代日志系统

后续倒排索引还会增加对 JSON、Map 等复杂数据类型的支持。而 BKD 索引可以支持多维度类型的索引,为未来 Doris 增加 GEO 地理位置数据类型和索引打下了基础。与此同时 Apache Doris 在半结构化数据分析方面还有更多能力扩展,比如丰富的复杂数据类型(Array、Map、Struct、JSON)以及高性能字符串匹配算法等,这些将满足更加丰富的日志应用场景。

最后,如果该文章所述符合您的使用场景,欢迎大家下载 Apache Doris 2.0 版本(https://doris.apache.org/download)进行测试使用

责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • DSL
    DSL
    +关注

    关注

    2

    文章

    58

    浏览量

    38290
  • 数据
    +关注

    关注

    8

    文章

    7002

    浏览量

    88937
  • 存储
    +关注

    关注

    13

    文章

    4296

    浏览量

    85795
  • API
    API
    +关注

    关注

    2

    文章

    1498

    浏览量

    61953
  • 日志系统
    +关注

    关注

    0

    文章

    7

    浏览量

    7001

原文标题:如何基于Apache Doris构建新一代日志分析平台|解决方案

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    linux安装配置ElasticSearch之源码安装

    /elasticsearch#日志格式bootstrap.memory_lock: true#锁住es内存,保证内存不分配至交换分区network.host: 192.168.56.11#设置本机IP地址
    发表于 01-11 17:27

    移动电视射频技术面临什么挑战

    随着数字移动电视不断向移动设备的应用转移,应用和系统工程师正面临着各种挑战,比如外形尺寸的小型化、更低的功耗以及信号完整性。对现有移动电视标准的研究重点将放在了DVB-H上。本文将从系统
    发表于 06-03 06:28

    软件定义无线电架构面临哪些挑战呢?

    等公司的努力,通过V CAST观看足球锦标赛和从Google Earth获取本地信息正在变得越来越普通。无线通信在许多国家已超过陆地通信并且当前的数据带宽难以满足无线通讯的需求,这也是为什么说软件定义无线电架构面临着巨大的挑战
    发表于 08-02 07:47

    电力系统设计面临什么挑战

    电力系统设计工程师们正面临着较之以往更大的挑战。更加复杂的传感算法、最新的能源效率挑战和新一代高级传感器的应用,都意味着电力设计师们需要学习比以往更加广泛的技能,同时不断吸收新的设计思
    发表于 08-20 07:33

    在进行电源管理设计时,电源架构面临的那些重要挑战

    ,我们将重点介绍电源架构面临的一些重要挑战,重点是管理转换器噪声、生产和认证挑战,以及进一步缩小PCB尺寸的需求。引言
    发表于 07-26 08:30

    工业互联网面临挑战

    工业互联网面临挑战新一代工业控制网解决方案的重要性全光纤工业传输控制网的系统架构
    发表于 02-22 09:17

    电子系统设计所面临挑战是什么

    电子系统设计所面临挑战是什么什么是高速电路?高速电路面临的问题怎么解决?
    发表于 04-26 06:55

    使用空中鼠标系统面临哪些挑战?如何去克服这些挑战

    使用空中鼠标系统面临哪些挑战?如何去克服这些挑战
    发表于 05-10 07:26

    高速通信面临挑战是什么?

    高速通信面临挑战是什么?
    发表于 05-24 06:34

    多声道音频技术是什么?PC音频子系统面临哪些设计挑战

    多声道音频技术是什么?PC音频子系统面临哪些设计挑战
    发表于 06-04 07:02

    远程患者监护系统面临挑战有哪些

    面临五大常见的主要设计挑战:功耗(或电池寿命)、便携性(或大小)、患者安全、数据安全传送和集成。图1所示为可穿戴式患者监护仪的高级框图,重点介绍了电池管理、非隔离式DC/DC电源、隔离和无线接口等子系统
    发表于 11-04 06:01

    轻松搭建ELK日志分析系统

    Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序
    的头像 发表于 04-12 11:03 1.1w次阅读
    轻松搭建ELK<b class='flag-5'>日志</b>分析<b class='flag-5'>系统</b>

    ElasticSearch是什么?应用场景是什么?

    ElasticSearch是什么 ElasticSearch的功能 ElasticSearch的应用场景 ElasticSearch的特点
    的头像 发表于 10-09 18:38 2447次阅读

    分布式实时日志分析解决方案ELK部署架构

    ELK 已经成为目前最流行的集中式日志解决方案,它主要是由 Beats、Logstash、Elasticsearch、Kibana 等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本文将会介绍 ELK 常见的
    的头像 发表于 01-29 11:55 884次阅读

    统一日志数据流图

    统一日志数据流图 日志系统数据流图 系统进行日志收集的过程可以分为三个环节: (1)日志收集和导
    的头像 发表于 08-21 15:00 294次阅读
    统一<b class='flag-5'>日志</b>数据流图