.net 到底行不行!2000 人在线的客服系统真实屏录演示(附技术详解)

news/2024/11/14 8:54:12/文章来源:https://www.cnblogs.com/sheng_chao/p/18431157

业余时间用 .net 写了一个免费的在线客服系统:升讯威在线客服与营销系统。

时常有朋友问我性能方面的问题,正好有一个真实客户,在线的访客数量达到了 2000 人。在争得客户同意后,我录了一个视频。

升讯威在线客服系统可以在极低配置的服务器环境下,轻松应对这种情况,依然可以做到:

消息毫秒级送达,操作毫秒级响应

性能

以官方在线使用环境为例,每日处理 HTTPS 请求数大于 16 万次, PV 请求大于 25 万 次的情况下,服务端主程序内存占用小于 300MB,服务器 CPU 占用小于 5%。

每日处理 HTTPS 请求数大于 16 万次:

每日处理 PV 请求大于 25 万 次:

服务端主程序内存占用小于 300MB:

服务器 CPU (Intel Xeon Platinum 8163 / 4 核 2.5 GHz) 占用稳定约 5%:

安全性

  • 访客端使用 https 与 wss 安全连接,数据全程加密传输。
  • 客服端数据报文使用 AES 加密传输。(Advanced Encryption Standard,美国联邦政府区块加密标准)。
  • 可以 100% 私有化部署在您的自有服务器。

拦截的报文中消息以密文传输:


实现效果

客服端

访客端


怎么做到的?技术详解

使用NetworkStream的TCP服务器

在Pipelines之前用.NET编写的典型代码如下所示:

async Task ProcessLinesAsync(NetworkStream stream)
{var buffer = new byte[1024];await stream.ReadAsync(buffer, 0, buffer.Length);// 在buffer中处理一行消息ProcessLine(buffer);
}

此代码可能在本地测试时正确工作,但它有几个潜在错误:

一次ReadAsync调用可能没有收到整个消息(行尾)。
它忽略了stream.ReadAsync()返回值中实际填充到buffer中的数据量。(译者注:即不一定将buffer填充满)
一次ReadAsync调用不能处理多条消息。
这些是读取流数据时常见的一些缺陷。为了解决这个问题,我们需要做一些改变:

我们需要缓冲传入的数据,直到找到新的行。
我们需要解析缓冲区中返回的所有行

async Task ProcessLinesAsync(NetworkStream stream)
{var buffer = new byte[1024];var bytesBuffered = 0;var bytesConsumed = 0;while (true){var bytesRead = await stream.ReadAsync(buffer, bytesBuffered, buffer.Length - bytesBuffered);if (bytesRead == 0){// EOF 已经到末尾break;}// 跟踪已缓冲的字节数bytesBuffered += bytesRead;var linePosition = -1;do{// 在缓冲数据中查找找一个行末尾linePosition = Array.IndexOf(buffer, (byte)'\n', bytesConsumed, bytesBuffered - bytesConsumed);if (linePosition >= 0){// 根据偏移量计算一行的长度var lineLength = linePosition - bytesConsumed;// 处理这一行ProcessLine(buffer, bytesConsumed, lineLength);// 移动bytesConsumed为了跳过我们已经处理掉的行 (包括\n)bytesConsumed += lineLength + 1;}}while (linePosition >= 0);}
}

这一次,这可能适用于本地开发,但一行可能大于1KiB(1024字节)。我们需要调整输入缓冲区的大小,直到找到新行。

因此,我们可以在堆上分配缓冲区去处理更长的一行。我们从客户端解析较长的一行时,可以通过使用ArrayPool避免重复分配缓冲区来改进这一点。

async Task ProcessLinesAsync(NetworkStream stream)
{byte[] buffer = ArrayPool<byte>.Shared.Rent(1024);var bytesBuffered = 0;var bytesConsumed = 0;while (true){// 在buffer中计算中剩余的字节数var bytesRemaining = buffer.Length - bytesBuffered;if (bytesRemaining == 0){// 将buffer size翻倍 并且将之前缓冲的数据复制到新的缓冲区var newBuffer = ArrayPool<byte>.Shared.Rent(buffer.Length * 2);Buffer.BlockCopy(buffer, 0, newBuffer, 0, buffer.Length);// 将旧的buffer丢回池中ArrayPool<byte>.Shared.Return(buffer);buffer = newBuffer;bytesRemaining = buffer.Length - bytesBuffered;}var bytesRead = await stream.ReadAsync(buffer, bytesBuffered, bytesRemaining);if (bytesRead == 0){// EOF 末尾break;}// 跟踪已缓冲的字节数bytesBuffered += bytesRead;do{// 在缓冲数据中查找找一个行末尾linePosition = Array.IndexOf(buffer, (byte)'\n', bytesConsumed, bytesBuffered - bytesConsumed);if (linePosition >= 0){// 根据偏移量计算一行的长度var lineLength = linePosition - bytesConsumed;// 处理这一行ProcessLine(buffer, bytesConsumed, lineLength);// 移动bytesConsumed为了跳过我们已经处理掉的行 (包括\n)bytesConsumed += lineLength + 1;}}while (linePosition >= 0);}
}

这段代码有效,但现在我们正在重新调整缓冲区大小,从而产生更多缓冲区副本。它将使用更多内存,因为根据代码在处理一行行后不会缩缓冲区的大小。为避免这种情况,我们可以存储缓冲区序列,而不是每次超过1KiB大小时调整大小。

此外,我们不会增长1KiB的 缓冲区,直到它完全为空。这意味着我们最终传递给ReadAsync越来越小的缓冲区,这将导致对操作系统的更多调用。

为了缓解这种情况,我们将在现有缓冲区中剩余少于512个字节时分配一个新缓冲区:

public class BufferSegment
{public byte[] Buffer { get; set; }public int Count { get; set; }public int Remaining => Buffer.Length - Count;
}async Task ProcessLinesAsync(NetworkStream stream)
{const int minimumBufferSize = 512;var segments = new List<BufferSegment>();var bytesConsumed = 0;var bytesConsumedBufferIndex = 0;var segment = new BufferSegment { Buffer = ArrayPool<byte>.Shared.Rent(1024) };segments.Add(segment);while (true){// Calculate the amount of bytes remaining in the bufferif (segment.Remaining < minimumBufferSize){// Allocate a new segmentsegment = new BufferSegment { Buffer = ArrayPool<byte>.Shared.Rent(1024) };segments.Add(segment);}var bytesRead = await stream.ReadAsync(segment.Buffer, segment.Count, segment.Remaining);if (bytesRead == 0){break;}// Keep track of the amount of buffered bytessegment.Count += bytesRead;while (true){// Look for a EOL in the list of segmentsvar (segmentIndex, segmentOffset) = IndexOf(segments, (byte)'\n', bytesConsumedBufferIndex, bytesConsumed);if (segmentIndex >= 0){// Process the lineProcessLine(segments, segmentIndex, segmentOffset);bytesConsumedBufferIndex = segmentOffset;bytesConsumed = segmentOffset + 1;}else{break;}}// Drop fully consumed segments from the list so we don't look at them againfor (var i = bytesConsumedBufferIndex; i >= 0; --i){var consumedSegment = segments[i];// Return all segments unless this is the current segmentif (consumedSegment != segment){ArrayPool<byte>.Shared.Return(consumedSegment.Buffer);segments.RemoveAt(i);}}}
}(int segmentIndex, int segmentOffest) IndexOf(List<BufferSegment> segments, byte value, int startBufferIndex, int startSegmentOffset)
{var first = true;for (var i = startBufferIndex; i < segments.Count; ++i){var segment = segments[i];// Start from the correct offsetvar offset = first ? startSegmentOffset : 0;var index = Array.IndexOf(segment.Buffer, value, offset, segment.Count - offset);if (index >= 0){// Return the buffer index and the index within that segment where EOL was foundreturn (i, index);}first = false;}return (-1, -1);
}

此代码只是得到很多更加复杂。当我们正在寻找分隔符时,我们同时跟踪已填充的缓冲区序列。为此,我们此处使用List查找新行分隔符时表示缓冲数据。其结果是,ProcessLine和IndexOf现在接受List作为参数,而不是一个byte[],offset和count。我们的解析逻辑现在需要处理一个或多个缓冲区序列。

我们的服务器现在处理部分消息,它使用池化内存来减少总体内存消耗,但我们还需要进行更多更改:

  • 我们使用的byte[]和ArrayPool的只是普通的托管数组。这意味着无论何时我们执行ReadAsync或WriteAsync,这些缓冲区都会在异步操作的生命周期内被固定(以便与操作系统上的本机IO API互操作)。这对GC有性能影响,因为无法移动固定内存,这可能导致堆碎片。根据异步操作挂起的时间长短,池的实现可能需要更改。
  • 可以通过解耦读取逻辑和处理逻辑来优化吞吐量。这会创建一个批处理效果,使解析逻辑可以使用更大的缓冲区块,而不是仅在解析单个行后才读取更多数据。这引入了一些额外的复杂性
  • 我们需要两个彼此独立运行的循环。一个读取Socket和一个解析缓冲区。
  • 当数据可用时,我们需要一种方法来向解析逻辑发出信号。
  • 我们需要决定如果循环读取Socket“太快”会发生什么。如果解析逻辑无法跟上,我们需要一种方法来限制读取循环(逻辑)。这通常被称为“流量控制”或“背压”。
  • 我们需要确保事情是线程安全的。我们现在在读取循环和解析循环之间共享多个缓冲区,并且这些缓冲区在不同的线程上独立运行。
  • 内存管理逻辑现在分布在两个不同的代码段中,从填充缓冲区池的代码是从套接字读取的,而从缓冲区池取数据的代码是解析逻辑。
  • 我们需要非常小心在解析逻辑完成之后我们如何处理缓冲区序列。如果我们不小心,我们可能会返回一个仍由Socket读取逻辑写入的缓冲区序列。

在线体验或下载完整私有化部署包:

https://kf.shengxunwei.com

希望能够打造: 开放、开源、共享。努力打造 .net 社区的一款优秀开源产品。

钟意的话请给个赞支持一下吧,谢谢~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/803457.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

记.Net Framework中wwwroot文件限制用户访问

背景 项目.Net Framework做的,已经线上跑了很多年了,突然发现用户上传的文件都被放到了wwwroot//Content/Upload目录,这些文件都是比较重要的,程序用来读取解析数据的,但是被直接可以公开访问了。 其实要改也很简单,代码改一下,文件挪一下位置就可以了,但是如果这样改就…

项目可能问问题

项目和简历 hr面试问题 自我介绍 面试官你好,我叫王首都,重庆邮电大学 计算机科学与技术专业研二在读,主要从事java后端开发,项目达人探店,它主要,实现了登录验证,缓存查询,优惠券秒杀,接口限流,以及签到打卡等功能。在上学期间获得了人民奖学金,新生奖学金,学业讲…

MongoDB 双活集群在运营商的实践

本文将着重分享某头部运营商订单中心在实现双活架构过程中的最佳实践,提供详细的技术细节和实际案例。通过介绍项目实施过程中的技术细节,提供类似场景需求的方案参考。在现代电信行业中,订单中心作为核心业务系统之一,承担着处理客户订单、管理订单状态、与各个业务系统进…

信创里程碑:TapData 与海量数据达成产品兼容互认证,共同助力基础设施国产化建设

测试结果显示,TapData LDP V3 与 Vastbase G100 V2.2 完全兼容,整体运行稳定高效,性能表现优秀,可为企业级客户提供可靠的中间件与数据库支撑。近日,深圳钛铂数据有限公司(以下简称钛铂数据)自主研发的钛铂实时数据平台(TapData Live Data Platform,TapData LDP)与北…

【日记】感觉自己已经魔怔了(817 字)

正文下午装档案的时候,无意间朝外看了一眼,发现自己视力衰退了好多。感觉两只眼睛都有散光了,看东西有重影。有些担心。兄长血检报告出来了,血红蛋白高,肌酐低。尿酸倒是正常了,但总体还是偏高。我觉得好奇怪,他降尿酸怎么这么难…… 更奇怪的是他说心电图时不紧张,但窦…

DNS正向解析和反向解析的区别

在网络世界中,域名系统(DNS)起着至关重要的作用,它就如同网络世界的导航地图,帮助我们在浩瀚的数字海洋中准确找到目标。而在DNS中,正向解析和反向解析是两个重要的概念,它们有着明显的区别。 首先,正向解析是将域名转换为IP地址的过程。当我们在浏览器中输入一个网址,…

DNS云解析和普通解析一样吗

在当今数字化时代,网络的稳定与高效运行至关重要。域名系统(DNS)作为互联网的基础设施之一,其解析服务的质量直接影响着用户的网络体验。近年来,DNS云解析逐渐兴起,与传统的普通解析相比,它们之间存在着显著的区别。 首先,在可靠性方面,DNS云解析具有明显优势。普通解…

【学习笔记】数学证明方法

持续更新中持续更新中最值定理前提条件: 函数 \(f(x)\) 在区间内是连续的在满足前提的情况下,设区间上界为 \(a\),下界为 \(b\) 那么函数 \(f(x)\) 一定能取到区间 \((a,b)\) 内的所有值介值定理前提条件: 函数 \(f(x)\) 在区间内是连续的当区间 \([a,b]\) 上界为 \(A\),下…

【YashanDB知识库】多表更新报错 YAS-04344 multi-table update is not supported

本文内容来自YashanDB官网,具体内容请见https://www.yashandb.com/newsinfo/7369204.html?templateId=1718516 【问题分类】功能使用 【关键字】YAS-04344,UPDATE,multi-table update,MERGE INTO 【问题描述】 在崖山环境执行类似以下语法进行多表更新报 YAS-04344 multi-…

解决方案 | ObjectARX开发版本对照表CAD1997-CAD2025,ObjectARX SDK版本、ObjectARX-Wizards版本、CAD版本、VS版本匹配表

众所周知,在一般情况下,需要ObjectARX SDK版本、ObjectARX-Wizards版本、CAD版本、VS版本版本匹配才能进行CAD二次开发。根据网络数据整理如下。 参考资料:https://blog.csdn.net/zhoufei95/article/details/121553501

【YashanDB知识库】查询YashanDB表空间使用率

本文转自YashanDB官网,具体内容请见https://www.yashandb.com/newsinfo/7369203.html?templateId=1718516 【问题分类】功能使用 【关键字】表空间,使用率 【问题描述】YashanDB使用过程中,如何查询表空间的使用率 【问题原因分析】需要查询相应的YashanDB系统表,计算表空…

QT C++ 自学积累 『非技术文』

QT C++ 自学积累 『非技术文』最近一段时间参与了一个 QT 项目的开发,使用的是 C++ 语法,很遗憾的是我之前从来没有接触过 C++ ,大学没有开过这堂课,也没用自己学习过,所有说上手贼慢,到现在为止其实也不是很清楚具体的开发技巧,毕竟是参与,东一复制西一粘贴的,就拉倒…