无线通信:基于深度强化学习

这里写自定义目录标题

  • 异构蜂窝网络:用户关联和信道分配
    • a stochastic game
    • Multi-Agent Q-Learning Method
    • Multi-Agent dueling double DQN Algorithm
  • 分布式动态下行链路波束成形
    • Limited-Information Exchange Protocol
    • Distributed DRL-Based DTDE Scheme for DDBC
      • Distributed DRL-Based DTDE Scheme for DDBC
  • 空基网络中的分布式多用户接入控制:BS和UE关联
    • 基于分布式 DRL 的用户驱动接入控制算法
    • 基准算法
  • 天基网络中的LEO卫星多用户信道分配:RB分配
    • 基于协作 DRL 的 LEO 卫星多用户信道分配
  • 天基网络中的LEO地球固定小区设计:波束角度、RB分配、RB预配置子集
  • 天空融合网络中的多维资源优化:卫星的频谱分配、UAV轨迹、UAV和UE关联

面向非地面网络的智能无线资源管理机制与算法研究
[1]曹阳. 面向非地面网络的智能无线资源管理机制与算法研究[D]. 电子科技大学, 2023. DOI: 10.27005/d.cnki.gdzku.2023.000168.

异构蜂窝网络:用户关联和信道分配

N. Zhao, Y. -C. Liang, D. Niyato, Y. Pei, M. Wu and Y. Jiang, “Deep Reinforcement Learning for User Association and Resource Allocation in Heterogeneous Cellular Networks,” in IEEE Transactions on Wireless Communications, vol. 18, no. 11, pp. 5141-5152, Nov. 2019, doi: 10.1109/TWC.2019.2933417.

Three-tier heterogeneous cellular network.
L BSs → N UEs
K orthogonal channels

the Joint user association and resource allocation Optimization Problem

variables: discrete
1.bli(t)=1: the i i ith UE chooses to associate with the BS l l l at time t t t
2.cik(t)=1: the i i ith UE utilizes the channel C k Ck Ck at time t t t
constraints
1.each UE can only choose at most one BS at any time
2.each UE can only choose at most one channel at any time
3.the SINR of the i t h ith ith UE ≥

a stochastic game

state
si(t) ∈{0, 1}
si(t)=0 means that the ith UE cannot meet its the minimum QoS requirement, that is, Γi(t) < Ωi
the number of possible states is 2 N 2^N 2N

action
alki(t)={bli(t),cik(t)},
1.bli(t)=1: the i i ith UE chooses to associate with the BS l l l at time t t t
2.cik(t)=1: the i i ith UE utilizes the channel C k Ck Ck at time t t t
The number of possible actions of each UE is L K LK LK = L种选择方式 * K种选择方式

reward
the long-term reward Φi = the weighted sum of the instantaneous rewards over a finite period T

the reward of the ith UE = the ith UE’s utility - the action-selection cost Ψi
Ψi > 0. Note that the negative reward (−Ψi) acts as a punishment.
to guarantee the minimum QoS of all UEs, this negative reward should be set big enough.

the ith UE’s utility = \rho_i * the total transmission capacity of the ith UE - the total transmission cost associated with the ith UE

Multi-Agent Q-Learning Method

At the beginning of each training episode, the network state is initialized through message passing.

  1. Each UE is connected to the neighboring BS with the maximum received signal power.
    By using a pilot signal, each UE can measure the received power from the associated BS and the randomly-selected channel.
  2. Then, each UE reports its own current state to its current associated BS.
    By the message passing among the BSs through the backhaul communication link, the global state information of all UEs is obtained.
  3. Then, the BSs send this global state informations to all UEs.

Each episode ends when the QoS of all UEs is satisfied or when the maximum step T is reached.
The total episode reward is the accumulation of instantaneous rewards of all steps within an episode.
Multi-Agent Q-Learning Method

Q i ( s , a i ) = Q i ( s , a i ) + δ [ u i ( s , a i , π − i ) + γ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ) − Q i ( s , a i ) [ u i ( s , a i , π − i ) + γ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ) ] , {Q_{i}}(s,a_{i})={Q_{i}}(s,a_{i})+ \delta \left[{ {u_{i}}(s,a_{i},{\mathcal{ \pi }}_{-i}) + \gamma \max \limits _{a_{i}' \in {\mathcal{ A}}_{i}} {Q_{i}}({s'},{a_{i}'})} {- {Q_{i}}(s,a_{i})\vphantom {\left [{ {u_{i}}(s,a_{i},{\mathcal{ \pi }}_{-i}) + \gamma \max \limits _{a_{i}' \in {\mathcal{ A}}_{i}} {Q_{i}}({s'},{a_{i}'})}\right.} }\right], Qi(s,ai)=Qi(s,ai)+δ[ui(s,ai,πi)+γaiAimaxQi(s,ai)Qi(s,ai)[ui(s,ai,πi)+γaiAimaxQi(s,ai)],

Multi-Agent dueling double DQN Algorithm

dueling double deep Q-network (D3QN)

A NN function approximator Q i ( s , a i ; θ ) ≈ Q i ∗ ( s , a i ) Q_{i}(s,a_{i};{\theta }) \approx {Q_{i}^{*}}(s,a_{i}) Qi(s,ai;θ)Qi(s,ai) with weights θ is used as an online network.
The DQN utilizes a target network alongside the online network to stabilize the overall network performance.

experience replay
During learning, instead of using only the current experience (s, ai,ui(s, ai),s′), the NN can be trained through sampling mini-batches of experiences from replay memory D uniformly at random.
By reducing the correlation among the training examples, the experience replay strategy ensures that the optimal policy cannot be driven to a local minima.

double DQN
since the same values are used to select and evaluate an action in Q-learning and DQN methods, Q-value function may be over-optimistically estimated.
Thus, double DQN (DDQN) [44] is used to mitigate the above problem

dueling architecture
The advantage function A(s, ai) describes the advantage of the action ai compared with the other possible actions.
This dueling architecture can lead to better policy evaluation.
Three hidden layers with dueling architecture used in our D3QN.
Reinforcement learning with DDQN strategy.

L i ( θ ) = E s , a i , u i ( s , a i ) , s ′ [ ( y i D Q N − Q i ( s , a i ; θ ) ) 2 ] , {L_{i}}({\theta }) = {E_{s,a_{i},u_{i}(s,a_{i}),s'}}[{(y_{i}^{DQN} - Q_{i}(s,a_{i};{\theta }))^{2}}], Li(θ)=Es,ai,ui(s,ai),s[(yiDQNQi(s,ai;θ))2],
上图里面红色的y为
y i D D Q N = u i ( s , a i ) + γ Q i ( s ′ , arg ⁡ max ⁡ a i ′ ∈ A i Q i ( s ′ , a i ′ ; θ ) ; θ − ) . y_{i}^{DDQN} = {u_{i}}(s,a_{i}) + \gamma Q_{i}\left ({s',\mathop {\arg \max }\limits _{a'_{i} \in {\mathcal{ A}}_{i}} Q_{i}(s',a'_{i};{\theta });\theta ^{-} }\right). yiDDQN=ui(s,ai)+γQi(s,aiAiargmaxQi(s,ai;θ);θ).

Multi-Agent dueling double DQN Algorithm

分布式动态下行链路波束成形

J. Ge, Y. -C. Liang, J. Joung and S. Sun, “Deep Reinforcement Learning for Distributed Dynamic MISO Downlink-Beamforming Coordination,” in IEEE Transactions on Communications, vol. 68, no. 10, pp. 6070-6085, Oct. 2020, doi: 10.1109/TCOMM.2020.3004524.

波束成形论文代码
multi-cell MISO-IC model
multi-cell MISO-IC model
a downlink cellular network of K cells
no intra-cell interference
all the BSs are equipped with a uniform linear array having N N N ( N ≥ 1 N≥1 N1) antenna elements.

max ⁡ W ( t ) ∑ k = 1 K C k ( W ( t ) ) 8a s . t . 0 ≤ ∥ w k ( t ) ∥ 2 ≤ p m a x , ∀ k ∈ K , 8b \max _{\mathbf {W}{(t)}}~\sum _{k=1}^{K}C_{k}(\mathbf {W}{(t)}) \text{8a}\\{\mathrm{ s.t.}}~0\leq \left \|{\mathbf {w}_{k}{(t)}}\right \|^{2} \leq p_{\mathrm{ max}},~\forall k \in \mathcal {K},\text{8b} maxW(t) k=1KCk(W(t))8as.t. 0wk(t)2pmax, kK,8b
the beamformer of BS k k k
the available maximum transmit power budget of each BS

Limited-Information Exchange Protocol

a downlink data transmission framework
The first phase (phase 1) is a preparing phase for the subsequent data transmission
the second phase (phase 2) is for the downlink data transmission.
in the centralized approaches, the cascade procedure of collecting global CSI, computing beamformers, and sending beamformers to the corresponding BSs is supposed to be carried out within phase 1.

limited-information exchange protocol
Designed limited-information exchange protocol in time slot t.
BSs are able to share their historical measurements and other information with their interferers and interfered neighbors.

  1. The received interference power from interferer j ∈ I k ( t ) j∈Ik(t) jIk(t) in time slot t − 1 t−1 t1
    , i.e., ∣ ∣ h † j , k ( t − 1 ) w j ( t − 1 ) ∣ ∣ 2 ∣∣h†j,k(t−1)wj(t−1)∣∣2 ∣∣hj,k(t1)wj(t1)∣∣2 .
  2. The total interference-plus-noise power of UE k k k in time slot t − 1 t−1 t1
    , i.e., ∑ l ≠ k ∣ ∣ h † l , k ( t − 1 ) w l ( t − 1 ) ∣ ∣ 2 + σ 2 ∑l≠k∣∣h†l,k(t−1)wl(t−1)∣∣2+σ2 l=k∣∣hl,k(t1)wl(t1)∣∣2+σ2 .
  3. The achievable rate of direct link k k k in time slot t − 1 t−1 t1
    , i.e., C k ( W ( t − 1 ) ) Ck(W(t−1)) Ck(W(t1)) .
  4. The equivalent channel gain of direct link k k k in time slot t − 1 t−1 t1
    , i.e., ∣ ∣ h † k , k ( t − 1 ) w ¯ k ( t − 1 ) ∣ ∣ 2 ∣∣h†k,k(t−1)w¯k(t−1)∣∣2 ∣∣hk,k(t1)w¯k(t1)∣∣2 .

Distributed DRL-Based DTDE Scheme for DDBC

distributed-training-distributed-executing (DTDE)
distributed dynamic downlink-beamforming coordination (DDBC)

each BS is an independent agent
a multi-agent reinforcement learning problem
distributed DRL-based DTDE scheme
Illustration of the proposed distributed DRL-based DTDE scheme in the considered multi-agent system.

  1. Actions
    A = { ( p , c ) , p ∈ P , c ∈ C } , \mathcal {A} = \{(p, {\mathbf{c}}),~p\in \mathcal {P},~{\mathbf{c}}\in \mathcal {C}\}, A={(p,c), pP, cC},
    P = { 0 , 1 Q p o w − 1 p m a x , 2 Q p o w − 1 p m a x , ⋯ , p m a x } \mathcal {P}=\left \{{0, \tfrac {1}{Q_{\mathrm{ pow}}-1}p_{\mathrm{ max}},\,\,\tfrac {2}{Q_{\mathrm{ pow}}-1}p_{\mathrm{ max}},\,\,\cdots,\,\,p_{\mathrm{ max}}}\right \} P={0,Qpow11pmax,Qpow12pmax,,pmax}
    C = { c 0 , c 1 , ⋯ , c Q c o d e − 1 } \mathcal {C}=\left \{{\mathbf {c}_{0},\,\,\mathbf {c}_{1},\,\,\cdots,\,\,\mathbf {c}_{Q_{\mathrm{ code}}-1}}\right \} C={c0,c1,,cQcode1}
    1.the transmit power of BS k in time slot t
    2.code c k ( t ) ck(t) ck(t)
    the total number of available actions is Q = Q p o w Q c o d e Q=QpowQcode Q=QpowQcode
  2. States
    1.Local Information
    2.Interferers’ Information
    3.Interfered Neighbors’ Information
  3. Reward
    the achievable rate of agent k k k
    the penalty on BS k is defined as the sum of the achievable rate losses of the interfered neighbors j∈Ok(t+1) , which are interfered by BS k , as follows:

Distributed DRL-Based DTDE Scheme for DDBC

Distributed DRL-Based DTDE Scheme for DDBC
In training step t , the prediction error
L ( θ ) = 1 2 M b ∑ ⟨ s , a , r , s ′ ⟩ ∈ D ( r ′ − q ( s , a ; θ ) ) 2 L(\boldsymbol {\theta })= \frac {1}{2M_{b}}\sum \limits _{\langle s,a,r,s'\rangle \in \mathcal {D}}\left ({r'-q(s,a; \boldsymbol {\theta })}\right)^{2} L(θ)=2Mb1s,a,r,sD(rq(s,a;θ))2
the target value of reward
r ′ = r + γ max ⁡ a ′ q ( s ′ , a ′ ; θ − ) r'= r + \gamma \max \limits _{a'}q(s',a'; \boldsymbol {\theta }^{-}) r=r+γamaxq(s,a;θ)

the optimizer returns a set of gradients shown in (22) to update the weights of the trained DQN through the back-propagation (BP) technique
∂ L ( θ ) ∂ θ = 1 M b ∑ ⟨ s , a , r , s ′ ⟩ ∈ D ( r ′ − q ( s , a ; θ ) ) ∇ q ( s , a ; θ ) . \frac {\partial L(\boldsymbol {\theta })}{\partial \boldsymbol {\theta }}= \frac {1}{M_{b}}\sum _{\langle s,a,r,s'\rangle \in \mathcal {D}}\left ({r'-q(s,a; \boldsymbol {\theta })}\right)\nabla q(s,a; \boldsymbol {\theta }). θL(θ)=Mb1s,a,r,sD(rq(s,a;θ))q(s,a;θ).

空基网络中的分布式多用户接入控制:BS和UE关联

Y. Cao, S. -Y. Lien and Y. -C. Liang, “Deep Reinforcement Learning For Multi-User Access Control in Non-Terrestrial Networks,” in IEEE Transactions on Communications, vol. 69, no. 3, pp. 1605-1619, March 2021, doi: 10.1109/TCOMM.2020.3041347.

基于空基平台的 NTN 实现方案
K架固定翼式UAV作为NT-BS,为特定区域内的M个移动UE提供下行传输服务
问题
ci,j(t)表示第j个NT-BS对第i个UE在时隙t的传输速率
变量:ui,j(t)表示第i个UE在时隙t是否接入第j个NT-BS
约束:每个UE在单个时隙只能接入一个NT-BS

基于分布式 DRL 的用户驱动接入控制算法

每个用户均作为独立的智能体,利用DQN在UE侧建立本地接入决策模块,并且每个UE仅采用本地观测量自主地完成NT-BS选择。

状态空间
si(t)表示第i个UE在时隙t的状态(4K+1个元素)
1.第i个用户在时隙t−1所接入的NT-BS标号(K个元素)
2.第i个用户处在时隙t−1和时隙t来自各NT-BS的RSS(2K个元素)
3.每个NT-BS在时隙t−1的接入用户数目(K个元素)
4.第i个UE在时隙t−1实现的传输速率(1个元素)

动作空间
ai(t)表示第i个UE在时隙t的动作(K个元素)
ui,j(t)表示第i个UE在时隙t是否接入第j个NT-BS

奖励函数
第i个UE在第t个时隙内的奖励函数
ri(t)=ri−(t)−ηφi(t)
UE获得的本地奖励
该UE对接入相同NT-BS的其他UE和速率所造成的影响

第i个UE的本地奖励:由第i个UE在当前时隙的传输速率和对应的切换代价所决定
ri−(t)=ωi(t),ai(t)=ai(t−1),
ri−(t)=ωi(t)−C,ai(t) ̸=ai(t−1).

第i个UE采用特定接入决策对集合Oj(t)中其他UE造成的影响φi(t)=
在假定第i个UE没有接入第j个NT-BS的情况下第k个UE的传输速率ωk−i(t)-第k个UE的真实传输速率ωk(t)
对k求和

算法:UE 端DQN
用户驱动的智能接入控制方案
用户驱动的智能接入控制方案

基于分布式DRL 的用户驱动接入控制算法
基于分布式DRL 的用户驱动接入控制算法

基准算法

  1. RSS 算法:在每个时隙,每个UE 选择可以提供最强RSS 的NT-BS 接入。
  2. Q 学习算法 [122]:在该算法中,每个UE 采用表格形式函数(即 Q 表格) 来估计每个状态-动作对的 Q 值。在每个时隙,每个UE 根据所建立的 Q 表格做 出NT-BS 选择。
  3. UCB 算法 [123]:在UCB 算法中,UE 在每个时隙根据下列公式确定其NT-BS 选择
  4. 随机算法:在该算法中,每个UE 在每个时隙随机选择一个NT-BS 接入。
  5. 搜索算法(最优结果):为了获得最优结果,该算法假定存在一个集中决 策节点实时收集全局网络信息。

M = 40 个UE 和 K = 6 个NT-BS

天基网络中的LEO卫星多用户信道分配:RB分配

Y. Cao, S. -Y. Lien and Y. -C. Liang, “Multi-tier Collaborative Deep Reinforcement Learning for Non-terrestrial Network Empowered Vehicular Connections,” 2021 IEEE 29th International Conference on Network Protocols (ICNP), Dallas, TX, USA, 2021, pp. 1-6, doi: 10.1109/ICNP52444.2021.9651962.

多波束LEO卫星下行传输系统
多波束LEO卫星下行传输系统
每颗LEO卫星采用多波束技术在地面形成N个频率复用因子为1的波束小区,并且每个波束小区内有M个移动UE。

在第t个时隙中,第j个小区中第i个UE在第k个RB可以实现的下行传输速率可以表示为ci,j,k(t)
在第t个时隙中,第j个小区中第i个UE可以实现的下行传输速率可以表示为 ci,j(t) rate
UE满意度αi,j(t):描述LEO卫星为UE分配的RB数目与该UE真实的RB数目需求之间的偏差 UE满意度
速率-满意度效用函数Ui,j(t) = wr ci,j(t) + ws αi,j(t),其中wr+ws=1。

从时隙0到时隙T−1的平均UE间速率-满意度效用函数最小值为速率-满意度效用函数最小值
问题
最大化从时隙0到时隙T−1的平均UE间速率-满意度效用函数最小值
变量:如果在时隙t,第j个波束小区中第i个UE接入第k个RB,那么xti,j,k=1。
约束:在单个时隙内,每个RB只能分配给一个UE

基于协作 DRL 的 LEO 卫星多用户信道分配

状态空间
在每个时隙 t,LEO 卫星的状态向量 s(t)
1.上 一个时隙的RB 分配决策
2.每个UE 在上 一个时隙所分配RB 上经历的干扰强度
3.每个UE 在上一个时隙的满意度
4.上一个时隙多个UE 试图接入相同RB 时发生碰撞的RB 的索引

动作空间
LEO 卫星在每个时隙 t 需要为波束小区内各UE 分配RB
如果在时隙t,第j个波束小区中第i个UE接入第k个RB,那么xti,j,k=1。
将网络实际输出连续变 量ˆ a(t) ∈ [0, 1] 进行离散化处理

奖励函数r(t)
UE 中速率-满意度效用最小值 min i∈Uj,j∈N ci,j(t)
UE 的当前RB 接入决策发生碰撞的惩罚项 Ci,j collision(t)
UE 满意度 不满足的惩罚项 Csatisfactory αi,j(t)
LEO 卫星 DRL 分层协作架构
LEO 卫星 DRL 分层协作架构
LEO 卫星星间和星地协作关系
LEO 卫星星间和星地协作关系

算法:双延迟深度确定性策略梯度 (Twin Delayed Deep Deterministic Policy Gradient, TD3) 算法
协作DRL 算法中LEO 卫星端操作流程
协作DRL 算法中LEO 卫星端操作流程
协作DRL 算法中地面UE 端操作流程
协作DRL 算法中地面UE 端操作流程

在这两种方案中,多波束LEO 卫星在半径为 500 千米的圆 形区域内形成 N = 2 个相同尺寸的波束小区,并在每个波束小区内采用 K = 5 个 带宽为 180 kHz 的RB 服务 M = 3 个移动的UE。

基准算法
DDPG 算法
无协作TD3 算法

天基网络中的LEO地球固定小区设计:波束角度、RB分配、RB预配置子集

Y. Cao, S. -Y. Lien, Y. -C. Liang, D. Niyato and X. S. Shen, “Collaborative Deep Reinforcement Learning for Resource Optimization in Non-Terrestrial Networks,” 2023 IEEE 34th Annual International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC), Toronto, ON, Canada, 2023, pp. 1-7, doi: 10.1109/PIMRC56721.2023.10294047.

多时间尺度资源配置机制下的LEO卫星地球固定小区方案
多时间尺度资源配置机制下的LEO卫星地球固定小区方案
问题
最小化UE从时隙0到时隙N−1利用的RB数目

  1. LEO发射波束角度
  2. UE接收波束角度
  3. RB分配方案:当在第n个时隙中第m个RB被分配给UE时,bn,m等于1。
  4. RB预配置子集:MnLEO表示在时隙n从RB集合M中选取的预配置RB子集。

约束:每个时隙内的速率需求DnUE

天空融合网络中的多维资源优化:卫星的频谱分配、UAV轨迹、UAV和UE关联

多波束GEO卫星与UAV中继构成的多层NTN
多波束GEO卫星与UAV中继构成的多层NTN
单颗GEO卫星形成C个互不重叠的波束小区,为地面N个UE提供无线覆盖服务。
GEO卫星的频域资源共可分为K个等宽度且互不重叠的频谱块,时域则被划分为等长的时隙。
M个UAV中继
每个波束小区内的UE数目Nj

在时隙t内,GEO卫星到第j个UAV中继的传输速率

在时隙t内,第i个UE从第j个UAV中继获得的接收速率

切换代价Γi,j(t)

问题
变量:

  1. GEO卫星的频谱分配方案:Wj,t表示GEO卫星在时隙t为第j个UAV中继(波束小区)分配的频谱块数目
  2. UAV的部署轨迹:paj(t)表示第j个UAV中继的三维坐标值
  3. UE的接入决策:若uti,j=1,则表示在时隙t第i个UE接入第j个UAV中继。

约束:

  1. 每个UE在每个时隙只允许接入一个UAV中继
  2. K个等宽度且互不重叠的频谱块

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/213694.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微信小程序开发资源汇总

本文收集了微信小程序开发过程中会使用到的资料、问题以及第三方组件库。本文不是一篇关于如何学习微信小程序的入门指南&#xff0c;也非参考手册&#xff0c;只是一些资料的整理。 本仓库中的资料整理自网络&#xff0c;也有一些来自网友的推荐。 官方文档 小程序设计指南…

大语言模型概述(三):基于亚马逊云科技的研究分析与实践

上期介绍了基于亚马逊云科技的大语言模型相关研究方向&#xff0c;以及大语言模型的训练和构建优化。本期将介绍大语言模型训练在亚马逊云科技上的最佳实践。 大语言模型训练在亚马逊云科技上的最佳实践 本章节内容&#xff0c;将重点关注大语言模型在亚马逊云科技上的最佳训…

SpringCloud Alibaba集成 Gateway(自定义负载均衡器)、Nacos(配置中心、注册中心)、loadbalancer

文章目录 POM依赖环境准备配置配置文件配置类 案例展示 POM依赖 <parent><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-parent</artifactId><version>2.7.10</version><relativePath/></p…

Vue学习之路------指令

Vue指令 vue会根据不同的指令&#xff0c;针对标签实现不同的功能 指令:带有v-前缀的特殊标签属性 1&#xff1a;v-html&#xff1a;指令 <div v-html"msg"></div> 2&#xff1a;v-show 作用&#xff1a;控制元素显示隐藏 语法&#xff1a;v-show&quo…

易点易动固定资产管理系统:实现全面的固定资产采购管理

在现代企业中&#xff0c;固定资产采购管理是一项关键的任务。为了确保企业的正常运营和发展&#xff0c;有效管理和控制固定资产采购过程至关重要。易点易动固定资产管理系统为企业提供了一种全面的解决方案&#xff0c;整合了从采购需求、采购计划、询比价、采购合同到采购执…

什么是机器学习

前言 机器学习&#xff08;Machine Learning, ML&#xff09;是一个总称&#xff0c;用于解决由各位程序员自己基于 if-else 等规则开发算法而导致成本过高的问题&#xff0c;想要通过帮助机器 「发现」 它们 「自己」 解决问题的算法来解决 &#xff0c;而不需要程序员将所有…

Android开发从0开始(ContentProvider与数据)

内容提供者&#xff1a;ContentProvider 为App存取内部数据提供外部接口&#xff0c;让不同应用共享数据。 ①在配置里AndroidManifest.xml <provider android:name".UserInfoProvider" android:authorities"com.example.chapter07_server.provider.U…

【华为数通HCIP | 网络工程师】821-IGP高频题、易错题之OSPF(4)

个人名片&#xff1a; &#x1f43c;作者简介&#xff1a;一名大三在校生&#xff0c;喜欢AI编程&#x1f38b; &#x1f43b;‍❄️个人主页&#x1f947;&#xff1a;落798. &#x1f43c;个人WeChat&#xff1a;hmmwx53 &#x1f54a;️系列专栏&#xff1a;&#x1f5bc;️…

抖去推短视频矩阵系统saas源头技术开发搭建

四大核心功能同开&#xff1a; 一、剪辑技术开发 智能剪辑&#xff1a; 6种不同的剪辑方式&#xff0c;独家源头技术开发&#xff0c;目前剪辑完全是自己的核心技术数学建模自己开发&#xff0c;核心优势视频剪辑生成提速比较快&#xff0c;后台写了两套自动滤重算法&#xf…

如何用python画一个圣诞树

前言 距离圣诞节还有一个月啦。今天&#xff0c;我们给大家画一个圣诞树&#xff0c;我们一起来看看效果吧。 效果展示 我们先来看看最终的效果看看我们画的圣诞树怎么样吧。如果&#xff0c;感觉不错&#xff0c;我们一起来实现吧。 功能实现 功能模块 我们先看看&#x…

文旅虚拟人IP:数字时代的传统文化推荐官

近几年&#xff0c;随着文旅虚拟人频“上岗”&#xff0c;虚拟人逐渐成为了文旅品牌的一种新颖的传统文化传播思路。 文旅品牌定制化推出虚拟人&#xff0c;本质原因是2023旅游业全面复苏&#xff0c;各文旅玩法同质化现象严重&#xff0c;在这样的境遇下&#xff0c;文旅品牌开…

网络安全如何自学?

1.网络安全是什么 网络安全可以基于攻击和防御视角来分类&#xff0c;我们经常听到的 “红队”、“渗透测试” 等就是研究攻击技术&#xff0c;而“蓝队”、“安全运营”、“安全运维”则研究防御技术。 2.网络安全市场 一、是市场需求量高&#xff1b; 二、则是发展相对成熟…