From 76aaca9cbd19fa4f4f0707b67f39f130718196ed Mon Sep 17 00:00:00 2001 From: ninglang Date: Sat, 11 May 2024 13:35:04 +0800 Subject: [PATCH] Site updated: 2024-05-11 13:35:03 --- search.xml | 1370 ++++++++++++++++++++++++++-------------------------- 1 file changed, 685 insertions(+), 685 deletions(-) diff --git a/search.xml b/search.xml index 4154a7b84..3202d25f4 100644 --- a/search.xml +++ b/search.xml @@ -171,86 +171,6 @@ href="">ipforbidden模块,刷入,即可 coding - - 通信原理笔记 - /2023/05/23/Communication%20principle/ - 通信原理理解性笔记

- -

信道

-
-

将发送端数字脉冲信号转换成模拟信号的过程称为调制(Modulation);将接收端模拟信号还原成数字脉冲信号的过程称为解调(Demodulation)。将调制和解调两种功能结合在一起的设备称为调制解调器(Modem)

-

模拟信号和数字信号之间可以相互转换:模拟信号一般通过PCM脉码调制(Pulse -Code -Modulation)方法量化为数字信号,即让模拟信号的不同幅度分别对应不同的二进制值,例如采用8位编码可将模拟信号量化为2^8=256个量级,实用中常采取24位或30位编码;数字信号一般通过对载波进行移相(Phase -Shift)的方法转换为模拟信号。

-

数字信道占用信道频带较宽。一路模拟电话的频带为4kHz带宽,一路数字电话约占64kHz,这是模拟通信目前仍有生命力的主要原因。

-
-

数字信道与模拟信道_模拟信道和数字信道_偷轮子的博客-CSDN博客

-

波形成型

-
-

从上图可以看出,相关时延大于符号持续时间,因此,当两个信号在接收侧相加时,来自于时延为的符号将会和来自于时延为的符号相加。

-

不同的符号相加,或者说,不同的符号相互干扰,即为符号间干扰(ISI)

-

一般将多径信号最大时延的倒数定义为多径信道的相关带宽。

-
-

频率选择性失真ISI一体两面,其中,频率选择性失真发生在频域,对应的时域结果ISI

-
-
-

衰落(2)-- -时延扩展,相关带宽,ISI - 知乎

-
-

脉冲整形

-

一、矩形脉冲

-

实际上矩形脉冲无失真传输是不可能的,因为由傅里叶变换可知,时域矩形脉冲,频域是sinc函数,带宽无限,而信道带宽总是有限的。 -失真严重导致采样判决出错,无法正确恢复数字信号。 -显然矩形脉冲信号不合适,sinc脉冲信号合适

-

二、sinc脉冲频谱有限,一个码元达到最大幅值时其他所有码元幅值刚好为零,码元之间不会相互影响,实现了无码间串扰。

-

基带滤波器

-

一般使用基带滤波器来实现脉冲整形

-

假设发送序列{1 1 1 -1 1 -1 -1 1} -发送序列、输入滤波器的冲激信号、每个冲激信号的冲激响应,和输出信号如图所示 -例子

-
-

基带信号的发送和接收的有效理解和掌握_滚降因子为0的系统可以算是理想低通系统吗_BIT小小书童的博客-CSDN博客

-
-

最初,信号是以矩形脉冲通过带限信道,必然会出现脉冲时延扩展引起S1,频域上看是Sa函数的旁瓣千扰。

-
-

简单概述:脉冲成形 -基带成形 (脉冲成型 基带成型) - HQU小西西 - 博客园

-

有点难,待会看

-

为什么要对基带信号进行脉冲成型【转载】 -- Riden - 博客园

-
-

为什么对基带信号要成形滤波?

-

基带信号带宽无限,需要限制带宽。成形滤波器也叫限带滤波器

-

实际中通信传输的信号大都是带通信号,也就是中心频带远大于频带宽度的信号。而这些带通信号的频谱结构只取决于等效低通信号的频谱结构。这里的等效低通信号就是你这里所指的基带数字信号。而基带数字信号的频率特性又取决于两个因素,一个是基带信号中构成每个脉冲符号的基本信号的频谱,另一个就是脉冲信号之间的相关性。换句话说可以通过设计不同的基本脉冲信号的波形和符号之间的相关性,达到改变基带信号频谱结构的目的,从而改变调制后带通信号的频谱特性。 -理解了这一点,你就可以理解为什么要对基带信号进行不同的滤波生成符号脉冲了。

-
-

基带传输与成形滤波_基带成型滤波器_长弓的坚持的博客-CSDN博客

-
-

为什么要->这里有直接结论:

-

(个人简单理解,脉冲成型(形),就是将脉冲变成其他的传输波形,理由就是压缩频谱来降低ISI) -!

-
-

简单概述:脉冲成形 -基带成形 (脉冲成型 基带成型) - 1024搜-程序员专属的搜索引擎

-
-

数字信号想要在信道中传输,必须在发射机的基带部分进行脉冲成形,将数字信号转换成脉冲信号,脉冲信号到达接收机后,在基带部分进行采样判决,将数字信号恢复出来。

-

如下图所示,脉冲成形需要用到脉冲波形,实现脉冲成形要用到基带滤波器,评估基带滤波器要用到眼图。【深入浅出通信原理-学习笔记】基带信号的发送和接收_脉冲怎么发送和接受_DUANDAUNNN的博客-CSDN博客

-
-]]>
- - 电路 - -
C && C++ (1) /2021/09/03/C_C++/ @@ -386,197 +306,89 @@ transfer,but it seem that we have really passed a,b into the function - GANs - /2023/06/03/GANs/ - GANs

+ 通信原理笔记 + /2023/05/23/Communication%20principle/ + 通信原理理解性笔记

-

模式识别的定义

+

信道

-

模式识别是对数据中的模式和规律性的自动识别。它在统计数据分析信号处理图像分析信息检索生物信息学数据压缩计算机图形学机器学习中都有应用。模式识别起源于统计学和工程学;一些现代的模式识别方法包括使用机器学习,这是由于大数据可用性的增加和处理能力的新丰富. -这些活动可以看作是同一个应用领域的两个方面,在过去的几十年里都得到了长足的发展。

+

将发送端数字脉冲信号转换成模拟信号的过程称为调制(Modulation);将接收端模拟信号还原成数字脉冲信号的过程称为解调(Demodulation)。将调制和解调两种功能结合在一起的设备称为调制解调器(Modem)

+

模拟信号和数字信号之间可以相互转换:模拟信号一般通过PCM脉码调制(Pulse +Code +Modulation)方法量化为数字信号,即让模拟信号的不同幅度分别对应不同的二进制值,例如采用8位编码可将模拟信号量化为2^8=256个量级,实用中常采取24位或30位编码;数字信号一般通过对载波进行移相(Phase +Shift)的方法转换为模拟信号。

+

数字信道占用信道频带较宽。一路模拟电话的频带为4kHz带宽,一路数字电话约占64kHz,这是模拟通信目前仍有生命力的主要原因。

-

Pattern -recognition - Wikipedia

-

L1 和 L2 正则化方法

L1 -and L2 Regularization Methods. Machine Learning | by Anuja Nagpal | -Towards Data Science

-

GAN

+href="https://blog.csdn.net/qq_20411471/article/details/100893530">数字信道与模拟信道_模拟信道和数字信道_偷轮子的博客-CSDN博客

+

波形成型

-

GAN是一个有趣的想法,最初被引入2014 -年,由 Ian Goodfellow(现供职于 -OpenAI)领导的蒙特利尔大学的一组研究人员。GAN -背后的主要思想是拥有两个相互竞争的神经网络模型。一个将噪声作为输入并生成样本(因此称为生成器)。另一个模型(称为鉴别器)从生成器和训练数据中接收样本,并且必须能够区分这两个来源。这两个网络玩一个连续的游戏,其中生成器正在学习生成越来越多的真实样本,而鉴别器正在学习越来越好地将生成的数据与真实数据区分开来。这两个网络是同时训练的,希望通过竞争来驱动生成的样本与真实数据无法区分。

-

-

这里经常使用的类比是,生成器就像试图制造一些伪造材料的伪造者,而鉴别器就像试图检测伪造物品的警察。这种设置似乎也让人想起强化学习,其中生成器从鉴别器接收奖励信号,让它知道生成的数据是否准确。然而,与 -GAN -的主要区别在于我们可以将梯度信息从鉴别器反向传播回生成器网络,因此生成器知道如何调整其参数以产生可以欺骗鉴别器的输出数据。

+

从上图可以看出,相关时延大于符号持续时间,因此,当两个信号在接收侧相加时,来自于时延为的符号将会和来自于时延为的符号相加。

+

不同的符号相加,或者说,不同的符号相互干扰,即为符号间干扰(ISI)

+

一般将多径信号最大时延的倒数定义为多径信道的相关带宽。

+
+

频率选择性失真ISI一体两面,其中,频率选择性失真发生在频域,对应的时域结果ISI

+
+
+

衰落(2)-- +时延扩展,相关带宽,ISI - 知乎

+
+

脉冲整形

+

一、矩形脉冲

+

实际上矩形脉冲无失真传输是不可能的,因为由傅里叶变换可知,时域矩形脉冲,频域是sinc函数,带宽无限,而信道带宽总是有限的。 +失真严重导致采样判决出错,无法正确恢复数字信号。 +显然矩形脉冲信号不合适,sinc脉冲信号合适

+

二、sinc脉冲频谱有限,一个码元达到最大幅值时其他所有码元幅值刚好为零,码元之间不会相互影响,实现了无码间串扰。

+

基带滤波器

+

一般使用基带滤波器来实现脉冲整形

+

假设发送序列{1 1 1 -1 1 -1 -1 1} +发送序列、输入滤波器的冲激信号、每个冲激信号的冲激响应,和输出信号如图所示 +例子

An -introduction to Generative Adversarial Networks (with code in -TensorFlow)

+href="https://blog.csdn.net/qq_41824183/article/details/107182725">基带信号的发送和接收的有效理解和掌握_滚降因子为0的系统可以算是理想低通系统吗_BIT小小书童的博客-CSDN博客

-

minmax(有时称为MinimaxMM -[1]鞍点[2])是人工智能决策论博弈论统计学哲学中用于最小化最坏情况最大损失)场景的可能损失的决策规则. -在处理增益时,它被称为“maximin”——最大化最小增益。最初是为多人零和博弈论制定的 -,涵盖了玩家交替移动和同时移动的情况,它也被扩展到更复杂的游戏和存在不确定性的一般决策。

+

最初,信号是以矩形脉冲通过带限信道,必然会出现脉冲时延扩展引起S1,频域上看是Sa函数的旁瓣千扰。

-

Minimax - -Wikipedia

-
    -
  • Cross-domain
  • -
+

简单概述:脉冲成形 +基带成形 (脉冲成型 基带成型) - HQU小西西 - 博客园

+

有点难,待会看

+

为什么要对基带信号进行脉冲成型【转载】 +- Riden - 博客园

-

Cross -Domain:中文表示--跨域。以小样本学习为例,跨域问题是指在学习过程中,源域(source -domain)和目标域(target -domain)在特征空间、类别空间或、边缘分布中的某一项或几项存在差异从而在学习过程中引起的问题。

-

Domain Adaptation,缩写DA:中文表示--域适应,主要是针对Cross -Domain跨域问题中源域和目标域的特征空间、类别空间相同、但边缘分布不同,即Ps(xs) -/= -Pt(xt)情况下的解决途径,如下图所示;域适应更多的应用在无监督学习下即UDA---Unsupervised -Domain Adaptation。

-

域适应,领域自适应技术的研究由来已久,其目的是将知识从一个或多个源域转移到具有不同数据分布的目标域。早期的方法通常依赖于浅层分类模型的适应性,使用实例重加权[12]和模型参数自适应[65]等技术。最近,人们提出了许多使用深层神经网络来解决域适应问题的方法,包括基于差异的方法,旨在调整域之间的边缘分布[38,54,23,30],基于对抗的方法,它们依赖于域鉴别器来鼓励与域无关的特征学习[59,14],以及基于重构的技术,通常使用编码器-解码器模型或GANs来重建新域中的数据[4,69,22]。然而,所有这些方法都考虑到训练集和测试集具有相同的类的情况。一项工作考虑了这样一种情况:有些类可能不相交,但仍然需要类重叠才能成功对齐[50]。相比之下,我们研究了源域和目标域具有完全不相交的标签集的跨域少镜头学习问题。

-

域泛化DG与域适应相关,因为我们关心的是目标域的性能,而不是源域的性能;但是它考虑的是目标域样本在训练过程中不可用的情况,因此模型必须直接泛化而不是适应目标域。DG与传统的泛化有关:在一组训练实例中学习的模型可以归纳为新的测试实例,例如通过正则化。然而它在更高的层次上运行,我们的目标是帮助在一组训练域上训练的模型泛化为一个新的测试域。

+

为什么对基带信号要成形滤波?

+

基带信号带宽无限,需要限制带宽。成形滤波器也叫限带滤波器

+

实际中通信传输的信号大都是带通信号,也就是中心频带远大于频带宽度的信号。而这些带通信号的频谱结构只取决于等效低通信号的频谱结构。这里的等效低通信号就是你这里所指的基带数字信号。而基带数字信号的频率特性又取决于两个因素,一个是基带信号中构成每个脉冲符号的基本信号的频谱,另一个就是脉冲信号之间的相关性。换句话说可以通过设计不同的基本脉冲信号的波形和符号之间的相关性,达到改变基带信号频谱结构的目的,从而改变调制后带通信号的频谱特性。 +理解了这一点,你就可以理解为什么要对基带信号进行不同的滤波生成符号脉冲了。

CrossDomain、DomainAdaptation、DomainGeneralization -- 知乎

+href="https://blog.csdn.net/wordwarwordwar/article/details/54755642">基带传输与成形滤波_基带成型滤波器_长弓的坚持的博客-CSDN博客

-

不同的domain之间存在特征交集,比如电商领域的CTR(曝光给用户预测其点击的概率)任务存在着部分相同的用户群体和商品,这部分信息其实在不同的domain任务中可以共享,但是又不完全相同,比如同一用户在不同的domain中的行为是不一样的。所以简单的混合不同domain数据训练一个共享model(完全不区分domain任务)是不够的,必须要有区分。

-

容易想到的就是每个domain训练一个model,但是这样显而易见的缺点就是(1)有的domain训练数据量少,导致很难学到一个理想效果(2)训练这么多model,维护起来也很麻烦,而且需要更多的计算和存储资源。

-

总体来说就是既要融合但是也要有区分。所以本文介绍的阿里这篇论文的着眼点就是去学一个模型,同时其又可以区分不同domain任务。目前其已经被应用在了阿里的广告系统,CTR提高了8%,RPM收入提高了6%。所以还是非常不错的一篇工业实践,一起来看看吧。

+

为什么要->这里有直接结论:

+

(个人简单理解,脉冲成型(形),就是将脉冲变成其他的传输波形,理由就是压缩频谱来降低ISI) +!

同任务但不同domain数据的统一模型

-

Transform

-

OpenAI -ChatGPT(一):十分钟读懂 Transformer - 知乎

+href="https://www.1024sou.com/article/914269.html">简单概述:脉冲成形 +基带成形 (脉冲成型 基带成型) - 1024搜-程序员专属的搜索引擎

+
+

数字信号想要在信道中传输,必须在发射机的基带部分进行脉冲成形,将数字信号转换成脉冲信号,脉冲信号到达接收机后,在基带部分进行采样判决,将数字信号恢复出来。

+

如下图所示,脉冲成形需要用到脉冲波形,实现脉冲成形要用到基带滤波器,评估基带滤波器要用到眼图。【深入浅出通信原理-学习笔记】基带信号的发送和接收_脉冲怎么发送和接受_DUANDAUNNN的博客-CSDN博客

+
]]>
- code + 电路
- 专业英语 - /2023/06/05/English_profess/ - GANs

-

专业英语答辩

- -
-

大家好,欢迎大家来到这里,今天我将为大家介绍一个用于图像翻译的新的技术,叫做cycle-gan,其是由AI华人青年学者Jun-Yan -Zhu主导的项目,在介绍这篇paper之前,我们先和大家介绍一些较为相近的领域。

-
-

First

-

Hello everyone, welcome to come here, today I will introduce a new -technology for image translation, called cycle-gan, which is a project -led by young AI Chinese scholar Jun-Yan Zhu, in this paper Before that, -let's introduce some relatively similar fields to you.

-
-

你们了解文心一言、或者是chatgpt,或许是由Google开发的bard吗?他们的共性是什么呢?没错,他们的共性就是都具有创造性,所谓的创造性,就是当你输入同一句话的时候,它能给出不同的结果,所以gpt的第一个单词就是Generative,但是CNN可不擅长生成式模型,当你给出同一个输入时,它更倾向于输出同一结果。

-
-

Do you guys know Wenxinyiyan, or chatgpt, maybe bard developed by -Google? What do they have in common? Yes, what they have in common is -that they are all creative. The so-called creativity means that when you -input the same sentence, it can give different results, so the first -word of gpt is Generative, but CNN is not good at generative models. , -when you give the same input, it is more likely to output the same -result.

-
-

另一个例子就是跨域识别问题,如何通过一个训练的模型,去泛化识别其它域的问题,这里就涉及到域适应,而gan就是用来解决这种问题的。

-
-

Another example is the problem of cross-domain recognition. How to -generalize and recognize other domains through a trained model, here -involves domain adaptation, and gan is used to solve this problem.

-
-

这是Gan的一个模型框架,主要是由生成器和判别器两部分组成,生成器用来生成内容,而判别器主要识别生成的内容是否是假的。生成器和判别器是两个模型,他们就如自然界一样捕食者与被捕食者共同进化。当判别器无法区分生成的内容是否为假,说明模型已经表现十分良好了

-
-

This is a model framework of Gan, which is mainly composed of two -parts: the generator and the discriminator. The generator is used to -generate content, and the discriminator mainly identifies whether the -generated content is fake. The generator and the discriminator are two -models, and they co-evolve with the prey just like in nature. When the -discriminator cannot distinguish whether the generated content is fake -or not, it means that the model has performed very well

-
-

Cycle-gan 使用了循环一致性,共需要四个模型,即两个生成模型GA->B, -GB->A,以及两个判别模型 -DA和DB,这就是cycle的由来,但是更加令人振奋人心的是:cycle-gan不需要配对的数据对进行训练,也就是说我们只需要给cycle-gan足够多的源域和目的域的数据,而不需要对其进行大量标签工作,它就会自动学习并且成功x -域到y域的转化规则,由于其涉及到两个域的双向转化,因而其迭代中使用的损失函数也是循环一致损失函数。

-
-

Cycle-gan uses cycle consistency and requires a total of four models, -namely two generative models GA->B, GB->A, and two discriminative -models DA and DB. This is the origin of cycle, but it is even more -exciting What is popular is that cycle-gan does not require paired data -pairs for training, that is to say, we only need to give cycle-gan -enough data from the source domain and the target domain without a lot -of labeling work on it, and it will Automatically learn and successfully -convert the x domain to the y domain. Since it involves the two-way -conversion of the two domains, the loss function used in its iteration -is also a cycle consistent loss function.

-

second

-
-

接下来给大家介绍一些cycle-gan应用:如视频增强领域,黑白视频变成彩色视频。或者是场景转化。或者是将抽象的画转化为一个具象的画如房屋建筑,这些都可以作为通信数据压缩,你可以试着一下发送方在网路上传送类似于色块一样的数据,它可能占用的带宽十分的小,当你在接收端受到这些色块时,再将其恢复出来。这样看起来是一个不错的视频压缩方法

-
-

Next, I will introduce some cycle-gan applications: for example, in -the field of video enhancement, black-and-white video becomes color -video. Or scene transformation. Or convert an abstract painting into a -concrete painting such as a building, these can be used as communication -data compression, you can try the sender to transmit data similar to -color blocks on the network, it may take up a lot of bandwidth Small, -when you get these color patches at the receiving end, bring them back. -This looks like a good way to compress video

-

Third

-

The third part is sentence analysis,

-

The meaning of the first sentence is -“此外,在实践中,我们发现很难优化对抗目标隔离:标准程序通常会导致众所周知的模式崩溃问题,其中所有输入图像都映射到相同的输出图像,优化无法取得进展 -[15]。

-

”。

-

The second sentence -means:“我们还与以前依赖于手动定义的样式和内容分解或共享嵌入函数的方法进行了比较,并表明我们的方法优于这些基线。”。

-

The third part is sentence analysis -“图像到图像转换的想法至少可以追溯到 Hertzmann 等人的图像类比 -[19],他们在单个输入输出训练图像对上采用非参数纹理模型 [10]。”

-

Here are some references. thanks for listening!

-]]>
- - code - -
- - 动态规划入门 - /2021/08/19/DP/ - ​ 之前没搞懂的动态规划,现在强行试了一下,欢迎大家指导!

+ 动态规划入门 + /2021/08/19/DP/ + ​ 之前没搞懂的动态规划,现在强行试了一下,欢迎大家指导!

Fibonacci Sequence

    @@ -743,6 +555,194 @@ alt="TTL三态门" /> 电子 + + GANs + /2023/06/03/GANs/ + GANs

    + +

    模式识别的定义

    +
    +

    模式识别是对数据中的模式和规律性的自动识别。它在统计数据分析信号处理图像分析信息检索生物信息学数据压缩计算机图形学机器学习中都有应用。模式识别起源于统计学和工程学;一些现代的模式识别方法包括使用机器学习,这是由于大数据可用性的增加和处理能力的新丰富. +这些活动可以看作是同一个应用领域的两个方面,在过去的几十年里都得到了长足的发展。

    +
    +

    Pattern +recognition - Wikipedia

    +

    L1 和 L2 正则化方法

    +

    L1 +and L2 Regularization Methods. Machine Learning | by Anuja Nagpal | +Towards Data Science

    +

    GAN

    +
    +

    GAN是一个有趣的想法,最初被引入2014 +年,由 Ian Goodfellow(现供职于 +OpenAI)领导的蒙特利尔大学的一组研究人员。GAN +背后的主要思想是拥有两个相互竞争的神经网络模型。一个将噪声作为输入并生成样本(因此称为生成器)。另一个模型(称为鉴别器)从生成器和训练数据中接收样本,并且必须能够区分这两个来源。这两个网络玩一个连续的游戏,其中生成器正在学习生成越来越多的真实样本,而鉴别器正在学习越来越好地将生成的数据与真实数据区分开来。这两个网络是同时训练的,希望通过竞争来驱动生成的样本与真实数据无法区分。

    +

    +

    这里经常使用的类比是,生成器就像试图制造一些伪造材料的伪造者,而鉴别器就像试图检测伪造物品的警察。这种设置似乎也让人想起强化学习,其中生成器从鉴别器接收奖励信号,让它知道生成的数据是否准确。然而,与 +GAN +的主要区别在于我们可以将梯度信息从鉴别器反向传播回生成器网络,因此生成器知道如何调整其参数以产生可以欺骗鉴别器的输出数据。

    +
    +

    An +introduction to Generative Adversarial Networks (with code in +TensorFlow)

    +
    +

    minmax(有时称为MinimaxMM +[1]鞍点[2])是人工智能决策论博弈论统计学哲学中用于最小化最坏情况最大损失)场景的可能损失的决策规则. +在处理增益时,它被称为“maximin”——最大化最小增益。最初是为多人零和博弈论制定的 +,涵盖了玩家交替移动和同时移动的情况,它也被扩展到更复杂的游戏和存在不确定性的一般决策。

    +
    +

    Minimax - +Wikipedia

    +
      +
    • Cross-domain
    • +
    +
    +

    Cross +Domain:中文表示--跨域。以小样本学习为例,跨域问题是指在学习过程中,源域(source +domain)和目标域(target +domain)在特征空间、类别空间或、边缘分布中的某一项或几项存在差异从而在学习过程中引起的问题。

    +

    Domain Adaptation,缩写DA:中文表示--域适应,主要是针对Cross +Domain跨域问题中源域和目标域的特征空间、类别空间相同、但边缘分布不同,即Ps(xs) +/= +Pt(xt)情况下的解决途径,如下图所示;域适应更多的应用在无监督学习下即UDA---Unsupervised +Domain Adaptation。

    +

    域适应,领域自适应技术的研究由来已久,其目的是将知识从一个或多个源域转移到具有不同数据分布的目标域。早期的方法通常依赖于浅层分类模型的适应性,使用实例重加权[12]和模型参数自适应[65]等技术。最近,人们提出了许多使用深层神经网络来解决域适应问题的方法,包括基于差异的方法,旨在调整域之间的边缘分布[38,54,23,30],基于对抗的方法,它们依赖于域鉴别器来鼓励与域无关的特征学习[59,14],以及基于重构的技术,通常使用编码器-解码器模型或GANs来重建新域中的数据[4,69,22]。然而,所有这些方法都考虑到训练集和测试集具有相同的类的情况。一项工作考虑了这样一种情况:有些类可能不相交,但仍然需要类重叠才能成功对齐[50]。相比之下,我们研究了源域和目标域具有完全不相交的标签集的跨域少镜头学习问题。

    +

    域泛化DG与域适应相关,因为我们关心的是目标域的性能,而不是源域的性能;但是它考虑的是目标域样本在训练过程中不可用的情况,因此模型必须直接泛化而不是适应目标域。DG与传统的泛化有关:在一组训练实例中学习的模型可以归纳为新的测试实例,例如通过正则化。然而它在更高的层次上运行,我们的目标是帮助在一组训练域上训练的模型泛化为一个新的测试域。

    +
    +

    CrossDomain、DomainAdaptation、DomainGeneralization +- 知乎

    +
    +

    不同的domain之间存在特征交集,比如电商领域的CTR(曝光给用户预测其点击的概率)任务存在着部分相同的用户群体和商品,这部分信息其实在不同的domain任务中可以共享,但是又不完全相同,比如同一用户在不同的domain中的行为是不一样的。所以简单的混合不同domain数据训练一个共享model(完全不区分domain任务)是不够的,必须要有区分。

    +

    容易想到的就是每个domain训练一个model,但是这样显而易见的缺点就是(1)有的domain训练数据量少,导致很难学到一个理想效果(2)训练这么多model,维护起来也很麻烦,而且需要更多的计算和存储资源。

    +

    总体来说就是既要融合但是也要有区分。所以本文介绍的阿里这篇论文的着眼点就是去学一个模型,同时其又可以区分不同domain任务。目前其已经被应用在了阿里的广告系统,CTR提高了8%,RPM收入提高了6%。所以还是非常不错的一篇工业实践,一起来看看吧。

    +
    +

    同任务但不同domain数据的统一模型

    +

    Transform

    +

    OpenAI +ChatGPT(一):十分钟读懂 Transformer - 知乎

    +]]>
    + + code + +
    + + 专业英语 + /2023/06/05/English_profess/ + GANs

    +

    专业英语答辩

    + +
    +

    大家好,欢迎大家来到这里,今天我将为大家介绍一个用于图像翻译的新的技术,叫做cycle-gan,其是由AI华人青年学者Jun-Yan +Zhu主导的项目,在介绍这篇paper之前,我们先和大家介绍一些较为相近的领域。

    +
    +

    First

    +

    Hello everyone, welcome to come here, today I will introduce a new +technology for image translation, called cycle-gan, which is a project +led by young AI Chinese scholar Jun-Yan Zhu, in this paper Before that, +let's introduce some relatively similar fields to you.

    +
    +

    你们了解文心一言、或者是chatgpt,或许是由Google开发的bard吗?他们的共性是什么呢?没错,他们的共性就是都具有创造性,所谓的创造性,就是当你输入同一句话的时候,它能给出不同的结果,所以gpt的第一个单词就是Generative,但是CNN可不擅长生成式模型,当你给出同一个输入时,它更倾向于输出同一结果。

    +
    +

    Do you guys know Wenxinyiyan, or chatgpt, maybe bard developed by +Google? What do they have in common? Yes, what they have in common is +that they are all creative. The so-called creativity means that when you +input the same sentence, it can give different results, so the first +word of gpt is Generative, but CNN is not good at generative models. , +when you give the same input, it is more likely to output the same +result.

    +
    +

    另一个例子就是跨域识别问题,如何通过一个训练的模型,去泛化识别其它域的问题,这里就涉及到域适应,而gan就是用来解决这种问题的。

    +
    +

    Another example is the problem of cross-domain recognition. How to +generalize and recognize other domains through a trained model, here +involves domain adaptation, and gan is used to solve this problem.

    +
    +

    这是Gan的一个模型框架,主要是由生成器和判别器两部分组成,生成器用来生成内容,而判别器主要识别生成的内容是否是假的。生成器和判别器是两个模型,他们就如自然界一样捕食者与被捕食者共同进化。当判别器无法区分生成的内容是否为假,说明模型已经表现十分良好了

    +
    +

    This is a model framework of Gan, which is mainly composed of two +parts: the generator and the discriminator. The generator is used to +generate content, and the discriminator mainly identifies whether the +generated content is fake. The generator and the discriminator are two +models, and they co-evolve with the prey just like in nature. When the +discriminator cannot distinguish whether the generated content is fake +or not, it means that the model has performed very well

    +
    +

    Cycle-gan 使用了循环一致性,共需要四个模型,即两个生成模型GA->B, +GB->A,以及两个判别模型 +DA和DB,这就是cycle的由来,但是更加令人振奋人心的是:cycle-gan不需要配对的数据对进行训练,也就是说我们只需要给cycle-gan足够多的源域和目的域的数据,而不需要对其进行大量标签工作,它就会自动学习并且成功x +域到y域的转化规则,由于其涉及到两个域的双向转化,因而其迭代中使用的损失函数也是循环一致损失函数。

    +
    +

    Cycle-gan uses cycle consistency and requires a total of four models, +namely two generative models GA->B, GB->A, and two discriminative +models DA and DB. This is the origin of cycle, but it is even more +exciting What is popular is that cycle-gan does not require paired data +pairs for training, that is to say, we only need to give cycle-gan +enough data from the source domain and the target domain without a lot +of labeling work on it, and it will Automatically learn and successfully +convert the x domain to the y domain. Since it involves the two-way +conversion of the two domains, the loss function used in its iteration +is also a cycle consistent loss function.

    +

    second

    +
    +

    接下来给大家介绍一些cycle-gan应用:如视频增强领域,黑白视频变成彩色视频。或者是场景转化。或者是将抽象的画转化为一个具象的画如房屋建筑,这些都可以作为通信数据压缩,你可以试着一下发送方在网路上传送类似于色块一样的数据,它可能占用的带宽十分的小,当你在接收端受到这些色块时,再将其恢复出来。这样看起来是一个不错的视频压缩方法

    +
    +

    Next, I will introduce some cycle-gan applications: for example, in +the field of video enhancement, black-and-white video becomes color +video. Or scene transformation. Or convert an abstract painting into a +concrete painting such as a building, these can be used as communication +data compression, you can try the sender to transmit data similar to +color blocks on the network, it may take up a lot of bandwidth Small, +when you get these color patches at the receiving end, bring them back. +This looks like a good way to compress video

    +

    Third

    +

    The third part is sentence analysis,

    +

    The meaning of the first sentence is +“此外,在实践中,我们发现很难优化对抗目标隔离:标准程序通常会导致众所周知的模式崩溃问题,其中所有输入图像都映射到相同的输出图像,优化无法取得进展 +[15]。

    +

    ”。

    +

    The second sentence +means:“我们还与以前依赖于手动定义的样式和内容分解或共享嵌入函数的方法进行了比较,并表明我们的方法优于这些基线。”。

    +

    The third part is sentence analysis +“图像到图像转换的想法至少可以追溯到 Hertzmann 等人的图像类比 +[19],他们在单个输入输出训练图像对上采用非参数纹理模型 [10]。”

    +

    Here are some references. thanks for listening!

    +]]>
    + + code + +
    毛概实践课 /2022/06/10/Introduction%20to%20Mao%20Zedong%20Thought/ @@ -775,88 +775,9 @@ alt="被删除视频" /> - Pointer - /2021/09/03/Point/ - Review the knowledge of pointers

    - -

    Pointer Category

    -
      -
    • Pointer point the constant:

      -
      const char *name = "chen"    //statement a pointer point a constant
      -

      because using const,so the Pointer can't change variable -in the address which it point ,so the statement as follows is incorrect -:

      -
      name[3]='a'					//incorrect,pointer "name" can't change constant 
      -

      but name is a normal pointer ,so it could change the items it -point,statement as follows are correct:

      -
      name = 'zhang'				//change the address the pointer point ,correct
      -

      Also,Even you have changed your string you point ,you still can't -change the string, Please somebody tell me why ,Thank you !

      -
      name[3]='y'					//incorrect,but I don't know why!
    • -
    • Constant Pointer

      -

      A pointer can't change the address it point ,but it still can change -the content it point,example:

      -
      char *const name ="chen";     //define a constant pointer
      name[3] = 'a'; //correct ,it can change the constent of pointer
      name = "zhang"; //incorrect ,it can't change the address it points
    • -
    • Constant Pointer points to constant

      -

      A constant pointer points a constant ,the address pointer point is -unchangeable and the content of address is unchangeable,example :

      -
      const char *const name="chen";	//define a constant pointer point the constant
      name[3] = 'q'; //incorrect ,the constant is unchangeable
      name ='ninglang'; //incorrect ,the address pointed is unchangeable
    • -
    • Const

      -

      Using a const to define a integer variable ,the keyword -omitted is acceptable the definition as following is same:

      -
      const int LIMITS = 100;
      const LIMITS = 100;
      -

      formal parameters also can be describe by const,for -example:

      -
      int MAX(const int*ptr)
      -

      the method promise the array can't be changed ,only be read.

    • -
    -

    Pointer array

    -
    #include<stdio.h>

    int main(void){
    char *arr[3]={'abc','def','ghi'};
    char *pArr = arr[0];
    printf("The string array arr's element :");
    for(int index=0;index<3;index++){
    printf("%s",arr[index]);
    }
    printf("\n");
    printf("The string arr's first element's every element:");
    for(int index = 0;index<3;index++){
    printf("%c",*(pArr+index));
    }
    printf("\n");
    return 0;
    }
    -

    in fact , you see the definition of Pointer array ,It is like as -follows:

    -
    char *arr[3]={'abc','def','ghi'};
    -
    char *pChar1 = 'abc',*pChar2 = 'def',*pChar3='ghi'
    char *arr[3] = {pChar1,pChar2,pChar3};
    -

    At the same time :

    -
    arr[0] = pChar;   //the arr first element is the pointer pChar
    -

    and the pChar is pointing the 'abc''s first element 'a', -so we can use the code to print 'a'

    -
    printf("%c",pChar[0]);   //print 'a'
    // print'a','b','c'
    for(int i = 0;i<3;i++){
    printf("%c ",pChar[i]);
    }
    -

    Pointer Function

    -
    int fun(int x,int y);			//normal function return integers
    -

    This function declaration is normal ,but There are some difference in -next function declaration

    -
    int *fun(int x,int y)
    -

    This function declaration is pointer function ,the return is a -pointer to int ,This is an address

    -

    Pointer To Function

    -

    To state a pointer to function ,which is a Pointer pointing function -.declaration form:

    -
    int (*fun)(int x,int y)
    -

    There are two ways to assign values to pointer variables

    -
    fun = &function;
    fun = function;
    -

    There are also two ways to call pointer to function

    -
    x=(*fun)();
    x=fun();
    -

    Example:

    -
    #include<stdio.h>
    #include<iostream>
    using namespace std;
    int add(int x,int y){
    return x+y;
    }

    int sub(int x,int y){
    return x-y;
    }

    int (*fun)(int x,int y);
    int main(){
    //first kind
    fun = add;
    cout<<"(*fun)(1,2)="<<(*fun)(1,2)<<endl;
    //second kind
    fun = &sub;
    cout<<"(*fun)(5,3)="<<(*fun)(5,3)<<" "<<fun(5,3);


    return 0;

    }
    -

    New and Delete

    -

    operation new can get a space from heap and return the -pointer to point the first address of the memory,and delete -can free the space

    -
    int *p;
    p = new int ; //new dynamically allocate an integer memory space,assign the first address to pointer variable


    delete p; //free the space allocated by new
    -

    new assign space for multidimensional array:

    -
    int i = 3;
    int *pi = new int[3][4];
    -

    new assign space with initial value:

    -
    #include<iostream>
    using namespace std;
    int main(){
    int *p;
    p = new int(99); //initial value
    cout<<*p;
    delete p;
    return 0;
    }
    -

    Malloc && Free get space

    -]]>
    - - coding - -
    - - LinkWe Technology - /2021/10/08/LinkWe/ - LinkWe Technology product

    + LinkWe Technology + /2021/10/08/LinkWe/ + LinkWe Technology product