【人工智能】英文学习材料(每日一句)

#学习笔记#

目录

1.Natural Language Processing,NLP(自然语言处理)

2.Machine Learing,ML(机器学习)

3.Neural Networks(神经网络)

4.Deep Learing(深度学习)

5.损失函数 (Loss Function)

6.梯度下降 (Gradient Descent)

7.随机梯度下降 (Stochastic Gradient Descent, SGD)

8.小批量梯度下降 (Mini-batch Gradient Descent)

9.反向传播 (Backpropagation)

10.过拟合 (Overfitting


1.Natural Language Processing,NLP(自然语言处理)

Natural Language Processing (NLP) is the field of artificial intelligence that enables computers to understand, interpret, and generate human language. It bridges the gap between human communication and computer understanding, making it possible for machines to perform tasks like translation, sentiment analysis, and topic classification.

  • interpret--解释、理解
  • bridges the gap -- 桥接差距
  • perform tasks -- 执行任务
  • sentiment analysis -- 情感分析
  • topic classification -- 主题分类

2.Machine Learing,ML(机器学习)

This is a subset of artificial intelligence that involves algorithms and statistical models that enable computers to perform specific tasks without using explicit instructions. Instead, they rely on patterns and inference derived from data. The goal of ML is to enable computers to learn from and make predictions or decisions based on data.

  • subet -- 子集
  • algorithms -- 算法
  • statistical models -- 统计模型
  • specific tasks -- 特定任务
  • explicit instructions -- 明确的指令
  • patterns -- 模式
  • inference -- 推理
  • derived from -- 源自

3.Neural Networks(神经网络)

Inspired by the human brain, neural networks are a set of algorithms, modeled loosely after the human brain, that are designed to recognize patterns. They interpret sensory data through a kind of machine perception, labeling, or clustering of raw input. These networks can adapt to changing input, meaning they generate the best possible result without needing to redesign the output criteria.

  • Inspired by -- 受启发于 
  • modeled loosely after -- 大致模仿,model有模仿的意思,loosely有偏差的
  • recognize patterns -- 识别模式
  • sensory data -- 感官数据
  • perception -- 感知、感觉
  • clustering -- 聚类
  • raw input -- 原始输入
  • adapt to -- 适应
  • changing -- chage的现在分词
  • redesign -- 重新设计
  • criteria -- 标准

4.Deep Learing(深度学习)

Deep Learning is a subset of machine learning in artificial intelligence that structures algorithms in layers to create an "artificial neural network" that can learn and make intelligent decisions on its own. This technology powers advanced applications such as voice recognition and image analysis.

  • subset -- 子集
  • structures -- 组织
  • layers -- 层
  • powers advanced applications -- 驱动高级应用
  • voice recognition -- 语音识别
  • image analysis -- 图像分析

5.Loss Function (损失函数)

A Loss Function in machine learning measures the difference between the actual output and the predicted output of the model. It quantifies how well the prediction model performs by assigning a cost to prediction errors.

  • actual output -- 实际输出
  • predicted output -- 预测输出
  • quantifies -- 量化
  • assigning -- 分配

6.Gradient Descent (梯度下降)

Gradient Descent is an optimization algorithm used to minimize some function by iteratively moving towards the minimum value of the function. It is commonly used in machine learning to find the best parameters for a model.

  • gradient -- 梯度
  • optimization algorithm -- 优化算法
  • minimize -- 最小化
  • iteratively -- 迭代地
  • minimum value -- 最小值
  • commonly -- 普遍地
  • parameters -- 参数

7.Stochastic Gradient Descent, SGD (随机梯度下降)

Stochastic Gradient Descent (SGD) is a variation of the gradient descent algorithm that updates the model's parameters using only a single sample or a small batch of samples, which makes the process faster and can help avoid local minima.

  • stochastic -- 随机的
  • variation -- 变体
  • batch -- 批量
  • local minima -- 局部最小值

8.Mini-batch Gradient Descent (小批量梯度下降)

Mini-batch Gradient Descent is a balance between the full batch gradient descent and stochastic gradient descent. It updates the model's parameters using a subset of the training data, rather than the full dataset or individual samples, optimizing computational efficiency.

  • full batch -- 全批量
  • subset -- 子集
  • training data -- 训练数据
  • computational efficiency -- 计算效率

9.Backpropagation (反向传播)

Backpropagation is a method used in artificial neural networks to calculate the gradient of the loss function with respect to each weight by the chain rule, effectively allowing for the optimization of weights to minimize loss.

  • calculate -- 计算
  • respect -- 关于
  • chain rule -- 链规则

10.Overfitting (过拟合)

Overfitting occurs when a machine learning model learns the detail and noise in the training data to the extent that it negatively impacts the model's performance on new data. This means the model is too complex, capturing noise as if it were a significant pattern, leading to poor generalization on unseen data.

  • occurs -- 出现
  • detail and noise -- 细节和噪声
  • to the extent that -- 到...的程度
  • negatively impacts -- 负面影响
  • performance -- 性能
  • capturing noise -- 捕捉噪声
  • significant pattern -- 重要模式
  • poor generalization -- 泛化能力差
  • unseen data -- 未见数据

后续更新:

全连接神经网络

循环神经网络

卷积神经网络

生成对抗网络(Generative Adversarial Network,GANs)

监督学习(Supervised Learing)

无监督学习(Unsupervised Learing)

半监督学习(semi-supervised Learing)

强化学习(Reinforcement Learing)

词向量

TF-IDF

预训练语言模型

生成式语言模型


以上

君子坐而论道,少年起而行之,共勉

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/544843.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

GiT: Towards Generalist Vision Transformer through Universal Language Interface

GiT: Towards Generalist Vision Transformer through Universal Language Interface 相关链接:arxiv github 关键字:Generalist Vision Transformer (GiT)、Universal Language Interface、Multi-task Learning、Zero-shot Transfer、Transformer 摘要 …

浏览器如何进行静态资源缓存?—— 强缓存 协商缓存

在平时使用浏览器排查问题的过程中,我们有时会看到浏览器网络请求中出现304状态码,那么是什么情况下出现304呢?下面是关于这一现象的解释: 浏览器如何进行静态资源缓存?—— 强缓存 & 协商缓存 状态码 304浏览器如…

GET和POST方法的区别

GET和POST的区别 在我们开发项目的时候常常会在Controller层使用到POST方法或者GET方法,犹豫到底将接口定义为GET方法还是POST方法?那这两者之间有什么区别呢? 看一下官方定义: GET 和 POST 是 HTTP 协议中最常用的两种请求方法…

(56)删除每行中的最大值

文章目录 1. 每日一言2. 题目3. 解题思路4. 代码5. 结语 1. 每日一言 抱怨过去发生的一切,就等于丧失了力量,白白浪费了往事要带给我们的成长。 2. 题目 题目链接:删除每行中的最大值 给你一个 m x n 大小的矩阵 grid ,由若干正…

STM32中MicroLIB的关闭为什么会导致卡死----解析

STM32MicroLIB 大家好我是 MHZ 。最近又开始往回捡单片机的知识了~ 之前大学的时候都没用过 STM 的 CubeMX,这会拿来用着感觉很方便啊~ 果然科技在进步! 在开发使用 Keil 对 STM32 进行开发的时候在会有一个叫做 MicroLIB 的选项。 这个的具体原因我搜…

数据结构/C++:红黑树

数据结构/C:红黑树 概念实现基本结构插入uncle为红色节点uncle为黑色节点 总代码展示 概念 红黑树是一种二叉搜索树,一般的二叉搜索会发送不平衡现象,导致搜索效率下降,于是学者们开始探索如何让二叉搜索树保持平衡,这…

java算法第25天 | ● 216.组合总和III ● 17.电话号码的字母组合

这两道题都是基于回溯的基本问题。 216.组合总和III 这道题是77.组合问题的变体&#xff0c;只不过终止条件多了一个和等于n。 class Solution {List<List<Integer>> resnew ArrayList<>();List<Integer> pathnew ArrayList<>();public List&l…

向量相似性度量的常用方法

向量相似性度量的常用方法 0. 引言1. 欧氏距离(Euclidean distance)2. 余弦相似度(Cosine similarity)3. 汉明距离(Hamming distance)4. 点积相似度 (Dot Product Similarity)5. 曼哈顿距离 (Manhattan Distance) 0. 引言 今天花时间学习学习向量相似性度量的常用方法&#xf…

zookeeper快速入门二:zookeeper基本概念

本文是zookeeper系列之快速入门中的第二篇&#xff0c;欢迎大家观看与指出不足。 目录 一、zookeeper的存储结构 二、什么是znode 三、znode节点的四种类型 四、权限控制ACL&#xff08;Access Control List&#xff09; 五、事件监听watcher 一、zookeeper的存储结构 z…

linux上MySQL的安装

(1)解压安装包 tar -xzvf mysql-5.7.33-linux-glibc2.12-x86_64.tar.gz mv mysql-5.7.33-linux-glibc2.12-x86_64 /usr/local/mysql(2)创建数据目录 [roothecs-161929 3306]# mkdir -p /data/mysql/3306/data [roothecs-161929 3306]# mkdir -p /data/mysql/3306/binlog [roo…

C语言-strerror(打印错误信息)和perror(获得错误信息)

strerror&#xff08;打印错误信息&#xff09;和perror&#xff08;获得错误信息&#xff09; strerror 语法格式 返回类型是char* 都需要头文件 errno.h 这里是错误码 每一个错误码代表一个错误信息 错误码 对照的错误信息 每一种编译器在写的时候已经规定好了 错误码对…

开环端到端自动驾驶: 到底行不行

开环端到端自动驾驶&#xff1a; 到底行不行 附赠全面专业的自动驾驶学习资料&#xff1a;直达链接 TLDR: 别在nuScenes上做开环端到端自动驾驶刷点了。 论文&#xff1a; https://arxiv.org/pdf/2312.03031.pdf github: https://github.com/NVlabs/BEV-Planner 前言 Uni…