From 76aaca9cbd19fa4f4f0707b67f39f130718196ed Mon Sep 17 00:00:00 2001
From: ninglang
--将发送端数字脉冲信号转换成模拟信号的过程称为调制(Modulation);将接收端模拟信号还原成数字脉冲信号的过程称为解调(Demodulation)。将调制和解调两种功能结合在一起的设备称为调制解调器(Modem)
-模拟信号和数字信号之间可以相互转换:模拟信号一般通过PCM脉码调制(Pulse -Code -Modulation)方法量化为数字信号,即让模拟信号的不同幅度分别对应不同的二进制值,例如采用8位编码可将模拟信号量化为2^8=256个量级,实用中常采取24位或30位编码;数字信号一般通过对载波进行移相(Phase -Shift)的方法转换为模拟信号。
-数字信道占用信道频带较宽。一路模拟电话的频带为4kHz带宽,一路数字电话约占64kHz,这是模拟通信目前仍有生命力的主要原因。
-
数字信道与模拟信道_模拟信道和数字信道_偷轮子的博客-CSDN博客
--- -从上图可以看出,相关时延大于符号持续时间,因此,当两个信号在接收侧相加时,来自于时延为的符号将会和来自于时延为的符号相加。
-不同的符号相加,或者说,不同的符号相互干扰,即为符号间干扰(ISI)。
-一般将多径信号最大时延的倒数定义为多径信道的相关带宽。
---频率选择性失真和ISI是一体两面,其中,频率选择性失真发生在频域,对应的时域结果为ISI
-
--脉冲整形
-一、矩形脉冲
-实际上矩形脉冲无失真传输是不可能的,因为由傅里叶变换可知,时域矩形脉冲,频域是sinc函数,带宽无限,而信道带宽总是有限的。 -失真严重导致采样判决出错,无法正确恢复数字信号。 -显然矩形脉冲信号不合适,sinc脉冲信号合适
-二、sinc脉冲 其频谱有限,一个码元达到最大幅值时其他所有码元幅值刚好为零,码元之间不会相互影响,实现了无码间串扰。
-基带滤波器
-一般使用基带滤波器来实现脉冲整形
-假设发送序列{1 1 1 -1 1 -1 -1 1} -发送序列、输入滤波器的冲激信号、每个冲激信号的冲激响应,和输出信号如图所示 -例子
-
基带信号的发送和接收的有效理解和掌握_滚降因子为0的系统可以算是理想低通系统吗_BIT小小书童的博客-CSDN博客
---最初,信号是以矩形脉冲通过带限信道,必然会出现脉冲时延扩展引起S1,频域上看是Sa函数的旁瓣千扰。
-
简单概述:脉冲成形 -基带成形 (脉冲成型 基带成型) - HQU小西西 - 博客园
-有点难,待会看
-为什么要对基带信号进行脉冲成型【转载】 -- Riden - 博客园
---为什么对基带信号要成形滤波?
-基带信号带宽无限,需要限制带宽。成形滤波器也叫限带滤波器
-实际中通信传输的信号大都是带通信号,也就是中心频带远大于频带宽度的信号。而这些带通信号的频谱结构只取决于等效低通信号的频谱结构。这里的等效低通信号就是你这里所指的基带数字信号。而基带数字信号的频率特性又取决于两个因素,一个是基带信号中构成每个脉冲符号的基本信号的频谱,另一个就是脉冲信号之间的相关性。换句话说可以通过设计不同的基本脉冲信号的波形和符号之间的相关性,达到改变基带信号频谱结构的目的,从而改变调制后带通信号的频谱特性。 -理解了这一点,你就可以理解为什么要对基带信号进行不同的滤波生成符号脉冲了。
-
基带传输与成形滤波_基带成型滤波器_长弓的坚持的博客-CSDN博客
---为什么要->这里有直接结论:
-(个人简单理解,脉冲成型(形),就是将脉冲变成其他的传输波形,理由就是压缩频谱来降低ISI) -!
-
简单概述:脉冲成形 -基带成形 (脉冲成型 基带成型) - 1024搜-程序员专属的搜索引擎
---]]> -数字信号想要在信道中传输,必须在发射机的基带部分进行脉冲成形,将数字信号转换成脉冲信号,脉冲信号到达接收机后,在基带部分进行采样判决,将数字信号恢复出来。
-如下图所示,脉冲成形需要用到脉冲波形,实现脉冲成形要用到基带滤波器,评估基带滤波器要用到眼图。【深入浅出通信原理-学习笔记】基带信号的发送和接收_脉冲怎么发送和接受_DUANDAUNNN的博客-CSDN博客
-
--模式识别是对数据中的模式和规律性的自动识别。它在统计数据分析、信号处理、图像分析、信息检索、生物信息学、数据压缩、计算机图形学和机器学习中都有应用。模式识别起源于统计学和工程学;一些现代的模式识别方法包括使用机器学习,这是由于大数据可用性的增加和处理能力的新丰富. -这些活动可以看作是同一个应用领域的两个方面,在过去的几十年里都得到了长足的发展。
+将发送端数字脉冲信号转换成模拟信号的过程称为调制(Modulation);将接收端模拟信号还原成数字脉冲信号的过程称为解调(Demodulation)。将调制和解调两种功能结合在一起的设备称为调制解调器(Modem)
+模拟信号和数字信号之间可以相互转换:模拟信号一般通过PCM脉码调制(Pulse +Code +Modulation)方法量化为数字信号,即让模拟信号的不同幅度分别对应不同的二进制值,例如采用8位编码可将模拟信号量化为2^8=256个量级,实用中常采取24位或30位编码;数字信号一般通过对载波进行移相(Phase +Shift)的方法转换为模拟信号。
+数字信道占用信道频带较宽。一路模拟电话的频带为4kHz带宽,一路数字电话约占64kHz,这是模拟通信目前仍有生命力的主要原因。
Pattern -recognition - Wikipedia
-L1 -and L2 Regularization Methods. Machine Learning | by Anuja Nagpal | -Towards Data Science
--+ +GAN是一个有趣的想法,最初被引入2014 -年,由 Ian Goodfellow(现供职于 -OpenAI)领导的蒙特利尔大学的一组研究人员。GAN -背后的主要思想是拥有两个相互竞争的神经网络模型。一个将噪声作为输入并生成样本(因此称为生成器)。另一个模型(称为鉴别器)从生成器和训练数据中接收样本,并且必须能够区分这两个来源。这两个网络玩一个连续的游戏,其中生成器正在学习生成越来越多的真实样本,而鉴别器正在学习越来越好地将生成的数据与真实数据区分开来。这两个网络是同时训练的,希望通过竞争来驱动生成的样本与真实数据无法区分。
- -这里经常使用的类比是,生成器就像试图制造一些伪造材料的伪造者,而鉴别器就像试图检测伪造物品的警察。这种设置似乎也让人想起强化学习,其中生成器从鉴别器接收奖励信号,让它知道生成的数据是否准确。然而,与 -GAN -的主要区别在于我们可以将梯度信息从鉴别器反向传播回生成器网络,因此生成器知道如何调整其参数以产生可以欺骗鉴别器的输出数据。
+从上图可以看出,相关时延大于符号持续时间,因此,当两个信号在接收侧相加时,来自于时延为的符号将会和来自于时延为的符号相加。
+不同的符号相加,或者说,不同的符号相互干扰,即为符号间干扰(ISI)。
+一般将多径信号最大时延的倒数定义为多径信道的相关带宽。
+++频率选择性失真和ISI是一体两面,其中,频率选择性失真发生在频域,对应的时域结果为ISI
+
+脉冲整形
+一、矩形脉冲
+实际上矩形脉冲无失真传输是不可能的,因为由傅里叶变换可知,时域矩形脉冲,频域是sinc函数,带宽无限,而信道带宽总是有限的。 +失真严重导致采样判决出错,无法正确恢复数字信号。 +显然矩形脉冲信号不合适,sinc脉冲信号合适
+二、sinc脉冲 其频谱有限,一个码元达到最大幅值时其他所有码元幅值刚好为零,码元之间不会相互影响,实现了无码间串扰。
+基带滤波器
+一般使用基带滤波器来实现脉冲整形
+假设发送序列{1 1 1 -1 1 -1 -1 1} +发送序列、输入滤波器的冲激信号、每个冲激信号的冲激响应,和输出信号如图所示 +例子
An -introduction to Generative Adversarial Networks (with code in -TensorFlow)
+href="https://blog.csdn.net/qq_41824183/article/details/107182725">基带信号的发送和接收的有效理解和掌握_滚降因子为0的系统可以算是理想低通系统吗_BIT小小书童的博客-CSDN博客-- -minmax(有时称为Minimax、MM -[1]或鞍点[2])是人工智能、决策论、博弈论、统计学和哲学中用于最小化最坏情况(最大损失)场景的可能损失的决策规则. -在处理增益时,它被称为“maximin”——最大化最小增益。最初是为多人零和博弈论制定的 -,涵盖了玩家交替移动和同时移动的情况,它也被扩展到更复杂的游戏和存在不确定性的一般决策。
+最初,信号是以矩形脉冲通过带限信道,必然会出现脉冲时延扩展引起S1,频域上看是Sa函数的旁瓣千扰。
简单概述:脉冲成形 +基带成形 (脉冲成型 基带成型) - HQU小西西 - 博客园
+有点难,待会看
+为什么要对基带信号进行脉冲成型【转载】 +- Riden - 博客园
-Cross -Domain:中文表示--跨域。以小样本学习为例,跨域问题是指在学习过程中,源域(source -domain)和目标域(target -domain)在特征空间、类别空间或、边缘分布中的某一项或几项存在差异从而在学习过程中引起的问题。
-Domain Adaptation,缩写DA:中文表示--域适应,主要是针对Cross -Domain跨域问题中源域和目标域的特征空间、类别空间相同、但边缘分布不同,即Ps(xs) -/= -Pt(xt)情况下的解决途径,如下图所示;域适应更多的应用在无监督学习下即UDA---Unsupervised -Domain Adaptation。
-域适应,领域自适应技术的研究由来已久,其目的是将知识从一个或多个源域转移到具有不同数据分布的目标域。早期的方法通常依赖于浅层分类模型的适应性,使用实例重加权[12]和模型参数自适应[65]等技术。最近,人们提出了许多使用深层神经网络来解决域适应问题的方法,包括基于差异的方法,旨在调整域之间的边缘分布[38,54,23,30],基于对抗的方法,它们依赖于域鉴别器来鼓励与域无关的特征学习[59,14],以及基于重构的技术,通常使用编码器-解码器模型或GANs来重建新域中的数据[4,69,22]。然而,所有这些方法都考虑到训练集和测试集具有相同的类的情况。一项工作考虑了这样一种情况:有些类可能不相交,但仍然需要类重叠才能成功对齐[50]。相比之下,我们研究了源域和目标域具有完全不相交的标签集的跨域少镜头学习问题。
-域泛化DG与域适应相关,因为我们关心的是目标域的性能,而不是源域的性能;但是它考虑的是目标域样本在训练过程中不可用的情况,因此模型必须直接泛化而不是适应目标域。DG与传统的泛化有关:在一组训练实例中学习的模型可以归纳为新的测试实例,例如通过正则化。然而它在更高的层次上运行,我们的目标是帮助在一组训练域上训练的模型泛化为一个新的测试域。
+为什么对基带信号要成形滤波?
+基带信号带宽无限,需要限制带宽。成形滤波器也叫限带滤波器
+实际中通信传输的信号大都是带通信号,也就是中心频带远大于频带宽度的信号。而这些带通信号的频谱结构只取决于等效低通信号的频谱结构。这里的等效低通信号就是你这里所指的基带数字信号。而基带数字信号的频率特性又取决于两个因素,一个是基带信号中构成每个脉冲符号的基本信号的频谱,另一个就是脉冲信号之间的相关性。换句话说可以通过设计不同的基本脉冲信号的波形和符号之间的相关性,达到改变基带信号频谱结构的目的,从而改变调制后带通信号的频谱特性。 +理解了这一点,你就可以理解为什么要对基带信号进行不同的滤波生成符号脉冲了。
CrossDomain、DomainAdaptation、DomainGeneralization -- 知乎
+href="https://blog.csdn.net/wordwarwordwar/article/details/54755642">基带传输与成形滤波_基带成型滤波器_长弓的坚持的博客-CSDN博客--不同的domain之间存在特征交集,比如电商领域的CTR(曝光给用户预测其点击的概率)任务存在着部分相同的用户群体和商品,这部分信息其实在不同的domain任务中可以共享,但是又不完全相同,比如同一用户在不同的domain中的行为是不一样的。所以简单的混合不同domain数据训练一个共享model(完全不区分domain任务)是不够的,必须要有区分。
-容易想到的就是每个domain训练一个model,但是这样显而易见的缺点就是(1)有的domain训练数据量少,导致很难学到一个理想效果(2)训练这么多model,维护起来也很麻烦,而且需要更多的计算和存储资源。
-总体来说就是既要融合但是也要有区分。所以本文介绍的阿里这篇论文的着眼点就是去学一个模型,同时其又可以区分不同domain任务。目前其已经被应用在了阿里的广告系统,CTR提高了8%,RPM收入提高了6%。所以还是非常不错的一篇工业实践,一起来看看吧。
+为什么要->这里有直接结论:
+(个人简单理解,脉冲成型(形),就是将脉冲变成其他的传输波形,理由就是压缩频谱来降低ISI) +!
OpenAI -ChatGPT(一):十分钟读懂 Transformer - 知乎
+href="https://www.1024sou.com/article/914269.html">简单概述:脉冲成形 +基带成形 (脉冲成型 基带成型) - 1024搜-程序员专属的搜索引擎 ++]]>数字信号想要在信道中传输,必须在发射机的基带部分进行脉冲成形,将数字信号转换成脉冲信号,脉冲信号到达接收机后,在基带部分进行采样判决,将数字信号恢复出来。
+如下图所示,脉冲成形需要用到脉冲波形,实现脉冲成形要用到基带滤波器,评估基带滤波器要用到眼图。【深入浅出通信原理-学习笔记】基带信号的发送和接收_脉冲怎么发送和接受_DUANDAUNNN的博客-CSDN博客
+
专业英语答辩
- ---大家好,欢迎大家来到这里,今天我将为大家介绍一个用于图像翻译的新的技术,叫做cycle-gan,其是由AI华人青年学者Jun-Yan -Zhu主导的项目,在介绍这篇paper之前,我们先和大家介绍一些较为相近的领域。
-
Hello everyone, welcome to come here, today I will introduce a new -technology for image translation, called cycle-gan, which is a project -led by young AI Chinese scholar Jun-Yan Zhu, in this paper Before that, -let's introduce some relatively similar fields to you.
---你们了解文心一言、或者是chatgpt,或许是由Google开发的bard吗?他们的共性是什么呢?没错,他们的共性就是都具有创造性,所谓的创造性,就是当你输入同一句话的时候,它能给出不同的结果,所以gpt的第一个单词就是Generative,但是CNN可不擅长生成式模型,当你给出同一个输入时,它更倾向于输出同一结果。
-
Do you guys know Wenxinyiyan, or chatgpt, maybe bard developed by -Google? What do they have in common? Yes, what they have in common is -that they are all creative. The so-called creativity means that when you -input the same sentence, it can give different results, so the first -word of gpt is Generative, but CNN is not good at generative models. , -when you give the same input, it is more likely to output the same -result.
---另一个例子就是跨域识别问题,如何通过一个训练的模型,去泛化识别其它域的问题,这里就涉及到域适应,而gan就是用来解决这种问题的。
-
Another example is the problem of cross-domain recognition. How to -generalize and recognize other domains through a trained model, here -involves domain adaptation, and gan is used to solve this problem.
---这是Gan的一个模型框架,主要是由生成器和判别器两部分组成,生成器用来生成内容,而判别器主要识别生成的内容是否是假的。生成器和判别器是两个模型,他们就如自然界一样捕食者与被捕食者共同进化。当判别器无法区分生成的内容是否为假,说明模型已经表现十分良好了
-
This is a model framework of Gan, which is mainly composed of two -parts: the generator and the discriminator. The generator is used to -generate content, and the discriminator mainly identifies whether the -generated content is fake. The generator and the discriminator are two -models, and they co-evolve with the prey just like in nature. When the -discriminator cannot distinguish whether the generated content is fake -or not, it means that the model has performed very well
---Cycle-gan 使用了循环一致性,共需要四个模型,即两个生成模型GA->B, -GB->A,以及两个判别模型 -DA和DB,这就是cycle的由来,但是更加令人振奋人心的是:cycle-gan不需要配对的数据对进行训练,也就是说我们只需要给cycle-gan足够多的源域和目的域的数据,而不需要对其进行大量标签工作,它就会自动学习并且成功x -域到y域的转化规则,由于其涉及到两个域的双向转化,因而其迭代中使用的损失函数也是循环一致损失函数。
-
Cycle-gan uses cycle consistency and requires a total of four models, -namely two generative models GA->B, GB->A, and two discriminative -models DA and DB. This is the origin of cycle, but it is even more -exciting What is popular is that cycle-gan does not require paired data -pairs for training, that is to say, we only need to give cycle-gan -enough data from the source domain and the target domain without a lot -of labeling work on it, and it will Automatically learn and successfully -convert the x domain to the y domain. Since it involves the two-way -conversion of the two domains, the loss function used in its iteration -is also a cycle consistent loss function.
---接下来给大家介绍一些cycle-gan应用:如视频增强领域,黑白视频变成彩色视频。或者是场景转化。或者是将抽象的画转化为一个具象的画如房屋建筑,这些都可以作为通信数据压缩,你可以试着一下发送方在网路上传送类似于色块一样的数据,它可能占用的带宽十分的小,当你在接收端受到这些色块时,再将其恢复出来。这样看起来是一个不错的视频压缩方法
-
Next, I will introduce some cycle-gan applications: for example, in -the field of video enhancement, black-and-white video becomes color -video. Or scene transformation. Or convert an abstract painting into a -concrete painting such as a building, these can be used as communication -data compression, you can try the sender to transmit data similar to -color blocks on the network, it may take up a lot of bandwidth Small, -when you get these color patches at the receiving end, bring them back. -This looks like a good way to compress video
-The third part is sentence analysis,
-The meaning of the first sentence is -“此外,在实践中,我们发现很难优化对抗目标隔离:标准程序通常会导致众所周知的模式崩溃问题,其中所有输入图像都映射到相同的输出图像,优化无法取得进展 -[15]。
-”。
-The second sentence -means:“我们还与以前依赖于手动定义的样式和内容分解或共享嵌入函数的方法进行了比较,并表明我们的方法优于这些基线。”。
-The third part is sentence analysis -“图像到图像转换的想法至少可以追溯到 Hertzmann 等人的图像类比 -[19],他们在单个输入输出训练图像对上采用非参数纹理模型 [10]。”
-Here are some references. thanks for listening!
-]]>++模式识别是对数据中的模式和规律性的自动识别。它在统计数据分析、信号处理、图像分析、信息检索、生物信息学、数据压缩、计算机图形学和机器学习中都有应用。模式识别起源于统计学和工程学;一些现代的模式识别方法包括使用机器学习,这是由于大数据可用性的增加和处理能力的新丰富. +这些活动可以看作是同一个应用领域的两个方面,在过去的几十年里都得到了长足的发展。
+
Pattern +recognition - Wikipedia
+L1 +and L2 Regularization Methods. Machine Learning | by Anuja Nagpal | +Towards Data Science
+++GAN是一个有趣的想法,最初被引入2014 +年,由 Ian Goodfellow(现供职于 +OpenAI)领导的蒙特利尔大学的一组研究人员。GAN +背后的主要思想是拥有两个相互竞争的神经网络模型。一个将噪声作为输入并生成样本(因此称为生成器)。另一个模型(称为鉴别器)从生成器和训练数据中接收样本,并且必须能够区分这两个来源。这两个网络玩一个连续的游戏,其中生成器正在学习生成越来越多的真实样本,而鉴别器正在学习越来越好地将生成的数据与真实数据区分开来。这两个网络是同时训练的,希望通过竞争来驱动生成的样本与真实数据无法区分。
+ +这里经常使用的类比是,生成器就像试图制造一些伪造材料的伪造者,而鉴别器就像试图检测伪造物品的警察。这种设置似乎也让人想起强化学习,其中生成器从鉴别器接收奖励信号,让它知道生成的数据是否准确。然而,与 +GAN +的主要区别在于我们可以将梯度信息从鉴别器反向传播回生成器网络,因此生成器知道如何调整其参数以产生可以欺骗鉴别器的输出数据。
+
An +introduction to Generative Adversarial Networks (with code in +TensorFlow)
+++ +minmax(有时称为Minimax、MM +[1]或鞍点[2])是人工智能、决策论、博弈论、统计学和哲学中用于最小化最坏情况(最大损失)场景的可能损失的决策规则. +在处理增益时,它被称为“maximin”——最大化最小增益。最初是为多人零和博弈论制定的 +,涵盖了玩家交替移动和同时移动的情况,它也被扩展到更复杂的游戏和存在不确定性的一般决策。
+
++Cross +Domain:中文表示--跨域。以小样本学习为例,跨域问题是指在学习过程中,源域(source +domain)和目标域(target +domain)在特征空间、类别空间或、边缘分布中的某一项或几项存在差异从而在学习过程中引起的问题。
+Domain Adaptation,缩写DA:中文表示--域适应,主要是针对Cross +Domain跨域问题中源域和目标域的特征空间、类别空间相同、但边缘分布不同,即Ps(xs) +/= +Pt(xt)情况下的解决途径,如下图所示;域适应更多的应用在无监督学习下即UDA---Unsupervised +Domain Adaptation。
+域适应,领域自适应技术的研究由来已久,其目的是将知识从一个或多个源域转移到具有不同数据分布的目标域。早期的方法通常依赖于浅层分类模型的适应性,使用实例重加权[12]和模型参数自适应[65]等技术。最近,人们提出了许多使用深层神经网络来解决域适应问题的方法,包括基于差异的方法,旨在调整域之间的边缘分布[38,54,23,30],基于对抗的方法,它们依赖于域鉴别器来鼓励与域无关的特征学习[59,14],以及基于重构的技术,通常使用编码器-解码器模型或GANs来重建新域中的数据[4,69,22]。然而,所有这些方法都考虑到训练集和测试集具有相同的类的情况。一项工作考虑了这样一种情况:有些类可能不相交,但仍然需要类重叠才能成功对齐[50]。相比之下,我们研究了源域和目标域具有完全不相交的标签集的跨域少镜头学习问题。
+域泛化DG与域适应相关,因为我们关心的是目标域的性能,而不是源域的性能;但是它考虑的是目标域样本在训练过程中不可用的情况,因此模型必须直接泛化而不是适应目标域。DG与传统的泛化有关:在一组训练实例中学习的模型可以归纳为新的测试实例,例如通过正则化。然而它在更高的层次上运行,我们的目标是帮助在一组训练域上训练的模型泛化为一个新的测试域。
+
CrossDomain、DomainAdaptation、DomainGeneralization +- 知乎
+++ +不同的domain之间存在特征交集,比如电商领域的CTR(曝光给用户预测其点击的概率)任务存在着部分相同的用户群体和商品,这部分信息其实在不同的domain任务中可以共享,但是又不完全相同,比如同一用户在不同的domain中的行为是不一样的。所以简单的混合不同domain数据训练一个共享model(完全不区分domain任务)是不够的,必须要有区分。
+容易想到的就是每个domain训练一个model,但是这样显而易见的缺点就是(1)有的domain训练数据量少,导致很难学到一个理想效果(2)训练这么多model,维护起来也很麻烦,而且需要更多的计算和存储资源。
+总体来说就是既要融合但是也要有区分。所以本文介绍的阿里这篇论文的着眼点就是去学一个模型,同时其又可以区分不同domain任务。目前其已经被应用在了阿里的广告系统,CTR提高了8%,RPM收入提高了6%。所以还是非常不错的一篇工业实践,一起来看看吧。
+
专业英语答辩
+ +++大家好,欢迎大家来到这里,今天我将为大家介绍一个用于图像翻译的新的技术,叫做cycle-gan,其是由AI华人青年学者Jun-Yan +Zhu主导的项目,在介绍这篇paper之前,我们先和大家介绍一些较为相近的领域。
+
Hello everyone, welcome to come here, today I will introduce a new +technology for image translation, called cycle-gan, which is a project +led by young AI Chinese scholar Jun-Yan Zhu, in this paper Before that, +let's introduce some relatively similar fields to you.
+++你们了解文心一言、或者是chatgpt,或许是由Google开发的bard吗?他们的共性是什么呢?没错,他们的共性就是都具有创造性,所谓的创造性,就是当你输入同一句话的时候,它能给出不同的结果,所以gpt的第一个单词就是Generative,但是CNN可不擅长生成式模型,当你给出同一个输入时,它更倾向于输出同一结果。
+
Do you guys know Wenxinyiyan, or chatgpt, maybe bard developed by +Google? What do they have in common? Yes, what they have in common is +that they are all creative. The so-called creativity means that when you +input the same sentence, it can give different results, so the first +word of gpt is Generative, but CNN is not good at generative models. , +when you give the same input, it is more likely to output the same +result.
+++另一个例子就是跨域识别问题,如何通过一个训练的模型,去泛化识别其它域的问题,这里就涉及到域适应,而gan就是用来解决这种问题的。
+
Another example is the problem of cross-domain recognition. How to +generalize and recognize other domains through a trained model, here +involves domain adaptation, and gan is used to solve this problem.
+++这是Gan的一个模型框架,主要是由生成器和判别器两部分组成,生成器用来生成内容,而判别器主要识别生成的内容是否是假的。生成器和判别器是两个模型,他们就如自然界一样捕食者与被捕食者共同进化。当判别器无法区分生成的内容是否为假,说明模型已经表现十分良好了
+
This is a model framework of Gan, which is mainly composed of two +parts: the generator and the discriminator. The generator is used to +generate content, and the discriminator mainly identifies whether the +generated content is fake. The generator and the discriminator are two +models, and they co-evolve with the prey just like in nature. When the +discriminator cannot distinguish whether the generated content is fake +or not, it means that the model has performed very well
+++Cycle-gan 使用了循环一致性,共需要四个模型,即两个生成模型GA->B, +GB->A,以及两个判别模型 +DA和DB,这就是cycle的由来,但是更加令人振奋人心的是:cycle-gan不需要配对的数据对进行训练,也就是说我们只需要给cycle-gan足够多的源域和目的域的数据,而不需要对其进行大量标签工作,它就会自动学习并且成功x +域到y域的转化规则,由于其涉及到两个域的双向转化,因而其迭代中使用的损失函数也是循环一致损失函数。
+
Cycle-gan uses cycle consistency and requires a total of four models, +namely two generative models GA->B, GB->A, and two discriminative +models DA and DB. This is the origin of cycle, but it is even more +exciting What is popular is that cycle-gan does not require paired data +pairs for training, that is to say, we only need to give cycle-gan +enough data from the source domain and the target domain without a lot +of labeling work on it, and it will Automatically learn and successfully +convert the x domain to the y domain. Since it involves the two-way +conversion of the two domains, the loss function used in its iteration +is also a cycle consistent loss function.
+++接下来给大家介绍一些cycle-gan应用:如视频增强领域,黑白视频变成彩色视频。或者是场景转化。或者是将抽象的画转化为一个具象的画如房屋建筑,这些都可以作为通信数据压缩,你可以试着一下发送方在网路上传送类似于色块一样的数据,它可能占用的带宽十分的小,当你在接收端受到这些色块时,再将其恢复出来。这样看起来是一个不错的视频压缩方法
+
Next, I will introduce some cycle-gan applications: for example, in +the field of video enhancement, black-and-white video becomes color +video. Or scene transformation. Or convert an abstract painting into a +concrete painting such as a building, these can be used as communication +data compression, you can try the sender to transmit data similar to +color blocks on the network, it may take up a lot of bandwidth Small, +when you get these color patches at the receiving end, bring them back. +This looks like a good way to compress video
+The third part is sentence analysis,
+The meaning of the first sentence is +“此外,在实践中,我们发现很难优化对抗目标隔离:标准程序通常会导致众所周知的模式崩溃问题,其中所有输入图像都映射到相同的输出图像,优化无法取得进展 +[15]。
+”。
+The second sentence +means:“我们还与以前依赖于手动定义的样式和内容分解或共享嵌入函数的方法进行了比较,并表明我们的方法优于这些基线。”。
+The third part is sentence analysis +“图像到图像转换的想法至少可以追溯到 Hertzmann 等人的图像类比 +[19],他们在单个输入输出训练图像对上采用非参数纹理模型 [10]。”
+Here are some references. thanks for listening!
+]]>Pointer point the constant:
-const char *name = "chen" //statement a pointer point a constant |
because using const
,so the Pointer can't change variable
-in the address which it point ,so the statement as follows is incorrect
-:
name[3]='a' //incorrect,pointer "name" can't change constant |
but name is a normal pointer ,so it could change the items it -point,statement as follows are correct:
-name = 'zhang' //change the address the pointer point ,correct |
Also,Even you have changed your string you point ,you still can't -change the string, Please somebody tell me why ,Thank you !
-name[3]='y' //incorrect,but I don't know why! |
Constant Pointer
-A pointer can't change the address it point ,but it still can change -the content it point,example:
-char *const name ="chen"; //define a constant pointer |
Constant Pointer points to constant
-A constant pointer points a constant ,the address pointer point is -unchangeable and the content of address is unchangeable,example :
-const char *const name="chen"; //define a constant pointer point the constant |
Const
-Using a const to define a integer
variable ,the keyword
-omitted is acceptable the definition as following is same:
const int LIMITS = 100; |
formal parameters also can be describe by const
,for
-example:
int MAX(const int*ptr) |
the method promise the array can't be changed ,only be read.
|
in fact , you see the definition of Pointer array ,It is like as -follows:
-char *arr[3]={'abc','def','ghi'}; |
char *pChar1 = 'abc',*pChar2 = 'def',*pChar3='ghi' |
At the same time :
-arr[0] = pChar; //the arr first element is the pointer pChar |
and the pChar
is pointing the 'abc''s first element 'a',
-so we can use the code to print 'a'
printf("%c",pChar[0]); //print 'a' |
int fun(int x,int y); //normal function return integers |
This function declaration is normal ,but There are some difference in -next function declaration
-int *fun(int x,int y) |
This function declaration is pointer function ,the return is a
-pointer to int
,This is an address
To state a pointer to function ,which is a Pointer pointing function -.declaration form:
-int (*fun)(int x,int y) |
There are two ways to assign values to pointer variables
-fun = &function; |
There are also two ways to call pointer to function
-x=(*fun)(); |
Example:
-
|
operation new
can get a space from heap and return the
-pointer to point the first address of the memory,and delete
-can free the space
int *p; |
new
assign space for multidimensional array:
int i = 3; |
new
assign space with initial value:
|
项目使用树莓派4B,具体流程如下
-SSH
的文件,无后缀it
删除)和VNCdeb
镜像源deb http://mirrors.tuna.tsinghua.edu.cn/raspbian/raspbian/ buster main contrib non-free rpi |
修改树莓派pip源。请记住,/etc/pip.conf
,里面默认是
[global] |
请不要修改,这个网址专为树莓定制
-pip永久换源(win和linux通用)
-pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple |
linux里面的永久源的地址为/home/pi/.config/pip/pip.conf
,需要修改可以直接编辑
也可以这样换源
-mkdir ~/.pip |
[global] |
这里的trusted-host
只有当链接不是https时需要,即将阿里云的网站改为
extra-index-url= https://mirrors.aliyun.com/pypi/simple |
pip3 install ...whl
即可成功安装多线程工具axel
apt-get install axel |
下载方式
-axel 参数 文件下载地址 |
#test model |
Pointer point the constant:
+const char *name = "chen" //statement a pointer point a constant |
because using const
,so the Pointer can't change variable
+in the address which it point ,so the statement as follows is incorrect
+:
name[3]='a' //incorrect,pointer "name" can't change constant |
but name is a normal pointer ,so it could change the items it +point,statement as follows are correct:
+name = 'zhang' //change the address the pointer point ,correct |
Also,Even you have changed your string you point ,you still can't +change the string, Please somebody tell me why ,Thank you !
+name[3]='y' //incorrect,but I don't know why! |
Constant Pointer
+A pointer can't change the address it point ,but it still can change +the content it point,example:
+char *const name ="chen"; //define a constant pointer |
Constant Pointer points to constant
+A constant pointer points a constant ,the address pointer point is +unchangeable and the content of address is unchangeable,example :
+const char *const name="chen"; //define a constant pointer point the constant |
Const
+Using a const to define a integer
variable ,the keyword
+omitted is acceptable the definition as following is same:
const int LIMITS = 100; |
formal parameters also can be describe by const
,for
+example:
int MAX(const int*ptr) |
the method promise the array can't be changed ,only be read.
|
in fact , you see the definition of Pointer array ,It is like as +follows:
+char *arr[3]={'abc','def','ghi'}; |
char *pChar1 = 'abc',*pChar2 = 'def',*pChar3='ghi' |
At the same time :
+arr[0] = pChar; //the arr first element is the pointer pChar |
and the pChar
is pointing the 'abc''s first element 'a',
+so we can use the code to print 'a'
printf("%c",pChar[0]); //print 'a' |
int fun(int x,int y); //normal function return integers |
This function declaration is normal ,but There are some difference in +next function declaration
+int *fun(int x,int y) |
This function declaration is pointer function ,the return is a
+pointer to int
,This is an address
To state a pointer to function ,which is a Pointer pointing function +.declaration form:
+int (*fun)(int x,int y) |
There are two ways to assign values to pointer variables
+fun = &function; |
There are also two ways to call pointer to function
+x=(*fun)(); |
Example:
+
|
operation new
can get a space from heap and return the
+pointer to point the first address of the memory,and delete
+can free the space
int *p; |
new
assign space for multidimensional array:
int i = 3; |
new
assign space with initial value:
|
浙江大学信息与电子工程学院2023年暑期学术夏令营 +- 浙江大学 - 保研论坛-保研经验分享 - Powered by Discuz!
+浙江大学信息与电子工程学院2023年全国优秀大学生暑期学术夏令营活动通知
+ +2023年南京大学电子科学与工程学院优秀大学生夏令营 +- 南京大学 - 保研论坛-保研经验分享 - Powered by Discuz!
+ + + +]]>项目使用树莓派4B,具体流程如下
+SSH
的文件,无后缀it
删除)和VNCdeb
镜像源deb http://mirrors.tuna.tsinghua.edu.cn/raspbian/raspbian/ buster main contrib non-free rpi |
修改树莓派pip源。请记住,/etc/pip.conf
,里面默认是
[global] |
请不要修改,这个网址专为树莓定制
+pip永久换源(win和linux通用)
+pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple |
linux里面的永久源的地址为/home/pi/.config/pip/pip.conf
,需要修改可以直接编辑
也可以这样换源
+mkdir ~/.pip |
[global] |
这里的trusted-host
只有当链接不是https时需要,即将阿里云的网站改为
extra-index-url= https://mirrors.aliyun.com/pypi/simple |
pip3 install ...whl
即可成功安装多线程工具axel
apt-get install axel |
下载方式
+axel 参数 文件下载地址 |
connect(信号发送者,发送的信号(函数的地址),信号接受者,处理的槽函数(函数的地址)); |
松散耦合:发送端和接受端的松散耦合
+signals
中,返回值是voidpublic slots
文件中,返回值是voidclass.h |
signals: |
定义槽和信号后,需要定义触发函数
+weidget: |
要先定义connect
再调用classover
。
信号函数和槽函数直接重载时,会因为二义性而导致程序无法编译,于是我们需要用函数指针来代替直接给地址,方法如下:
+void(Teacher:: *teachersignal)(QString)=&Teacher::hungry; |
Qstring 转char *
+Qstring.toUtf8().data() //先转utf8,再转char* |
connect(btn,&QPushButton::clicked,zt,teachersignal2); |
直接将两个信号用connect相连
+断开信号 disconnect
多个信号一个槽
多个槽连接一个信号
信号和槽的参数类型必须一一对应,信号参数个数可以大于槽函数的参数个数
lambda函数
+//connect 一般使用方法 |
&
.connect(ui->actionnew,&QAction::triggered,[=](){ |
[=](){QDialog dig2(this); |
DSP相关讨论
+ +set(gca,'color','none'); |
set(0,'defaultfigurecolor','w') |
% 画一下sinc函数随着参数变化时的图像变化 |
set(get(gca, 'Title'), 'String','$x_1(k)$', 'interpreter','latex','Fontsize',18); |
figure('units','normalized','position',[0.1,0.1,0.7,0.6]) |
+]]>connect(信号发送者,发送的信号(函数的地址),信号接受者,处理的槽函数(函数的地址)); |
松散耦合:发送端和接受端的松散耦合
-signals
中,返回值是voidpublic slots
文件中,返回值是voidclass.h |
signals: |
定义槽和信号后,需要定义触发函数
-weidget: |
要先定义connect
再调用classover
。
信号函数和槽函数直接重载时,会因为二义性而导致程序无法编译,于是我们需要用函数指针来代替直接给地址,方法如下:
-void(Teacher:: *teachersignal)(QString)=&Teacher::hungry; |
Qstring 转char *
-Qstring.toUtf8().data() //先转utf8,再转char* |
connect(btn,&QPushButton::clicked,zt,teachersignal2); |
直接将两个信号用connect相连
-断开信号 disconnect
多个信号一个槽
多个槽连接一个信号
信号和槽的参数类型必须一一对应,信号参数个数可以大于槽函数的参数个数
lambda函数
-//connect 一般使用方法 |
&
.connect(ui->actionnew,&QAction::triggered,[=](){ |
[=](){QDialog dig2(this); |
浙江大学信息与电子工程学院2023年暑期学术夏令营 -- 浙江大学 - 保研论坛-保研经验分享 - Powered by Discuz!
-浙江大学信息与电子工程学院2023年全国优秀大学生暑期学术夏令营活动通知
- -2023年南京大学电子科学与工程学院优秀大学生夏令营 -- 南京大学 - 保研论坛-保研经验分享 - Powered by Discuz!
- - - -]]>DSP相关讨论
- -set(gca,'color','none'); |
set(0,'defaultfigurecolor','w') |
% 画一下sinc函数随着参数变化时的图像变化 |
set(get(gca, 'Title'), 'String','$x_1(k)$', 'interpreter','latex','Fontsize',18); |
figure('units','normalized','position',[0.1,0.1,0.7,0.6]) |
-]]>题设:n个评价对象,m个评价指标观测值为 \[ +a_{ij}\quad(i=1,2,...n;j=1,2,..,m) +\]
+\[ +\begin{bmatrix}a_{11} & a_{12}&...&a_{1,m}\\\\a_{21} & +a_{22}&...&a_{2m}\\ \vdots&...&...&\\a_{n1} & +a_{n2}&...&a_{nm}\end{bmatrix} +\]
+\[ +\mu_j=\frac{1}{n}\sum_{i=1}^{n}a_{ij}\qquad +s_j=\sqrt{\frac{1}{n}(a_{ij}-\mu_j)^2}\\ +\]
+\[ +\begin{bmatrix}a_{11}\\a_{21}\\\vdots\\a_{n1}\end{bmatrix}\cdots\begin{bmatrix}a_{1m}\\a_{2m}\\\vdots\\a_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}\mu_1&\cdots\mu_m\end{bmatrix}\longrightarrow +\begin{bmatrix}s_1&\cdots&s_m\end{bmatrix}\\ +\]
+\[ +w_j=\frac{s_j}{\sum_{k=1}^{m}s_k}(j=1,2,3,4...m)\\ +\]
+\[ +\begin{bmatrix}w_1& w_2&\cdots w_m\end{bmatrix} +\]
+\[ +r_{j}=\max _{1 \leq i<k \leq n}\left\{\left|a_{i j}-a_{k +j}\right|\right\}(j=1,2, \cdots, m)\\ +\]
+\[ +\max_{every +element}\begin{bmatrix}rand(a_{i1}-a_{k1})&\cdots&rand(a_{ij}-a_{kj})\end{bmatrix}\longrightarrow\begin{bmatrix}r_1&r_2&\cdots&r_m\end{bmatrix} +\]
+所以第\(j\)项指标的权重系数为 \[ +w_{j}=\frac{s_{j}}{\sum_{l=1}^{m} r_{k}}(j=1,2, \cdots, m) +\]
+特征比重:
+在\[\mu_j=\sum_{i=1}^{n} a_{i +j}>0\],第\(j\)项指标的特征比重为 \[ +p_{i j}=\frac{a_{i j}}{\sum_{i=1}^{n} a_{i j}}(i=1,2, \cdots, n ; j=1,2, +\cdots, m) +\]
+\[ +\begin{bmatrix}a_{11}\\a_{21}\\\vdots\\a_{n1}\end{bmatrix}\cdots\begin{bmatrix}a_{1m}\\a_{2m}\\\vdots\\a_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}\mu_1&\cdots\mu_m\end{bmatrix}\longrightarrow\begin{bmatrix}p_{11}&\cdots&p_{1m}\\p_{21}&\cdots&p_{2m}\\\vdots&\cdots&\\p_{n1}&\cdots&p_{nm}\end{bmatrix} +\]
+第\(j\)项的熵值为: \[ +e_{j}=-\frac{1}{\ln n} \sum_{i=1}^{n} p_{i j} \ln p_{i j}(j=1,2, \cdots, +m) +\]
+\[ +\begin{bmatrix}p_{11}&\cdots&p_{1m}\\p_{21}&\cdots&p_{2m}\\\vdots&\cdots&\\p_{n1}&\cdots&p_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}e_1&\cdots&e_m\end{bmatrix} +\]
+不难看出,如果第\(j\)项指标的观测值差异越大,熵值越小;反之,熵值越大。
+计算第\(j\)项指标的差异系数为 \[ +g_{j}=1-e_{j}(j=1,2, \cdots, m) +\] 如果第项指标的观测值差异越大,则差异系数\(g\)就越大,第\(j\)项指标也就越重要。
+第\(j\)项的权重系数为 \[ +w_{j}=\frac{g_{j}}{\sum_{k=1}^{m} g_{k}}(j=1,2, \cdots, m) +\] 参考文章:
+ +]]>题设:n个评价对象,m个评价指标观测值为 \[ -a_{ij}\quad(i=1,2,...n;j=1,2,..,m) -\]
-\[ -\begin{bmatrix}a_{11} & a_{12}&...&a_{1,m}\\\\a_{21} & -a_{22}&...&a_{2m}\\ \vdots&...&...&\\a_{n1} & -a_{n2}&...&a_{nm}\end{bmatrix} -\]
-\[ -\mu_j=\frac{1}{n}\sum_{i=1}^{n}a_{ij}\qquad -s_j=\sqrt{\frac{1}{n}(a_{ij}-\mu_j)^2}\\ -\]
-\[ -\begin{bmatrix}a_{11}\\a_{21}\\\vdots\\a_{n1}\end{bmatrix}\cdots\begin{bmatrix}a_{1m}\\a_{2m}\\\vdots\\a_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}\mu_1&\cdots\mu_m\end{bmatrix}\longrightarrow -\begin{bmatrix}s_1&\cdots&s_m\end{bmatrix}\\ -\]
-\[ -w_j=\frac{s_j}{\sum_{k=1}^{m}s_k}(j=1,2,3,4...m)\\ -\]
-\[ -\begin{bmatrix}w_1& w_2&\cdots w_m\end{bmatrix} -\]
-\[ -r_{j}=\max _{1 \leq i<k \leq n}\left\{\left|a_{i j}-a_{k -j}\right|\right\}(j=1,2, \cdots, m)\\ -\]
-\[ -\max_{every -element}\begin{bmatrix}rand(a_{i1}-a_{k1})&\cdots&rand(a_{ij}-a_{kj})\end{bmatrix}\longrightarrow\begin{bmatrix}r_1&r_2&\cdots&r_m\end{bmatrix} -\]
-所以第\(j\)项指标的权重系数为 \[ -w_{j}=\frac{s_{j}}{\sum_{l=1}^{m} r_{k}}(j=1,2, \cdots, m) -\]
-特征比重:
-在\[\mu_j=\sum_{i=1}^{n} a_{i -j}>0\],第\(j\)项指标的特征比重为 \[ -p_{i j}=\frac{a_{i j}}{\sum_{i=1}^{n} a_{i j}}(i=1,2, \cdots, n ; j=1,2, -\cdots, m) -\]
-\[ -\begin{bmatrix}a_{11}\\a_{21}\\\vdots\\a_{n1}\end{bmatrix}\cdots\begin{bmatrix}a_{1m}\\a_{2m}\\\vdots\\a_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}\mu_1&\cdots\mu_m\end{bmatrix}\longrightarrow\begin{bmatrix}p_{11}&\cdots&p_{1m}\\p_{21}&\cdots&p_{2m}\\\vdots&\cdots&\\p_{n1}&\cdots&p_{nm}\end{bmatrix} -\]
-第\(j\)项的熵值为: \[ -e_{j}=-\frac{1}{\ln n} \sum_{i=1}^{n} p_{i j} \ln p_{i j}(j=1,2, \cdots, -m) -\]
-\[ -\begin{bmatrix}p_{11}&\cdots&p_{1m}\\p_{21}&\cdots&p_{2m}\\\vdots&\cdots&\\p_{n1}&\cdots&p_{nm}\end{bmatrix}\longrightarrow\begin{bmatrix}e_1&\cdots&e_m\end{bmatrix} -\]
-不难看出,如果第\(j\)项指标的观测值差异越大,熵值越小;反之,熵值越大。
-计算第\(j\)项指标的差异系数为 \[ -g_{j}=1-e_{j}(j=1,2, \cdots, m) -\] 如果第项指标的观测值差异越大,则差异系数\(g\)就越大,第\(j\)项指标也就越重要。
-第\(j\)项的权重系数为 \[ -w_{j}=\frac{g_{j}}{\sum_{k=1}^{m} g_{k}}(j=1,2, \cdots, m) -\] 参考文章:
- +1.更新源
+apt update |
2.安装openssh-server
+apt install openssh-server |
对于Alpine-linux,则用下面命令安装
+apk add --update openssh-server |
还需安装openrc
+apk add openrc |
设置/etc/ssh/sshd_config
追加如下指令
+-- PermitRootLogin yes
:star:先换源
+cd /etc/apt |
生成source文件
+touch sources.list |
写入源
+echo "deb http://mirrors.ustc.edu.cn/debian stable main contrib non-free" >>sources.list |
删除缓存
+rm -fR /var/lib/apt/lists/* |
在更新
+apt-get update |
while true; do |
1.更新源
-apt update |
2.安装openssh-server
-apt install openssh-server |
对于Alpine-linux,则用下面命令安装
-apk add --update openssh-server |
还需安装openrc
-apk add openrc |
设置/etc/ssh/sshd_config
追加如下指令
--- PermitRootLogin yes
:star:先换源
-cd /etc/apt |
生成source文件
-touch sources.list |
写入源
-echo "deb http://mirrors.ustc.edu.cn/debian stable main contrib non-free" >>sources.list |
删除缓存
-rm -fR /var/lib/apt/lists/* |
在更新
-apt-get update |
while true; do |
通感一体化
-CNN可视化:CNN -Explainer
-Swin -Transformer迎来30亿参数的v2.0,我们应该拥抱视觉大模型吗?.
+href="https://www.huawei.com/cn/huaweitech/future-technologies/integrated-sensing-communication-concept-practice">通信感知一体化——从概念到实践 +- 华为。 + +(35条消息) +3GPP信道模型路损基础知识_3gpp常用信道模型_LinkEverything的博客-CSDN博客。
+++即非正交多址接入(NOMA)。在正交多址技术(OMA)中,只能为一个用户分配单一的无线资源,例如按频率分割或按时间分割,而NOMA方式可将一个资源分配给多个用户。在某些场景中,比如远近效应场景和广覆盖多节点接入的场景,特别是上行密集场景,采用功率复用的非正交接入多址方式较传统的正交接入有明显的性能优势,更适合未来系统的部署。目前已经有研究验证了在城市地区采用NOMA的效果,并已证实,采用该方法可使无线接入宏蜂窝的总吞吐量提高50%左右。非正交多址复用通过结合串行干扰消除或类最大似然解调才能取得容量极限,因此技术实现的难点在于是否能设计出低复杂度且有效的接收机算法。
+NOMA不同于传统的正交传输,在发送端采用非正交发送,主动引入干扰信息,在接收端通过串行干扰删除技术实现正确解调。与正交传输相比,接收机复杂度有所提升,但可以获得更高的频谱效率。非正交传输的基本思想是利用复杂的接收机设计来换取更高的频谱效率,随着芯片处理能力的增强,将使非正交传输技术在实际系统中的应用成为可能。
+
(35条消息) +5G:非正交多址接入(NOMA)与串行干扰删除(SIC)_串行干扰消除_sswzw_cll的博客-CSDN博客.
+NOMA:
+++1、串行干扰删除(SIC)
+2、功率复用
+
(35条消息) +5G:非正交多址接入(NOMA)与串行干扰删除(SIC)_串行干扰消除_sswzw_cll的博客-CSDN博客.
+++ +对于LTE架构来说,网元包含的很多,其中,基站也是其中的一个网元,除此外还有MME、SGW、PDN等等。基站就是一个网元,基站和网元的关系类似苹果和水果的关系。网元划分的粒度很多,看用途了,有物理网元,逻辑网元,等效网元数等
+
感知与通信从松耦合到完全一体化可分为三个等级:
+ISAC的作用:在增强定位能力和毫米级
]]>通感一体化
-(35条消息) -3GPP信道模型路损基础知识_3gpp常用信道模型_LinkEverything的博客-CSDN博客。
---即非正交多址接入(NOMA)。在正交多址技术(OMA)中,只能为一个用户分配单一的无线资源,例如按频率分割或按时间分割,而NOMA方式可将一个资源分配给多个用户。在某些场景中,比如远近效应场景和广覆盖多节点接入的场景,特别是上行密集场景,采用功率复用的非正交接入多址方式较传统的正交接入有明显的性能优势,更适合未来系统的部署。目前已经有研究验证了在城市地区采用NOMA的效果,并已证实,采用该方法可使无线接入宏蜂窝的总吞吐量提高50%左右。非正交多址复用通过结合串行干扰消除或类最大似然解调才能取得容量极限,因此技术实现的难点在于是否能设计出低复杂度且有效的接收机算法。
-NOMA不同于传统的正交传输,在发送端采用非正交发送,主动引入干扰信息,在接收端通过串行干扰删除技术实现正确解调。与正交传输相比,接收机复杂度有所提升,但可以获得更高的频谱效率。非正交传输的基本思想是利用复杂的接收机设计来换取更高的频谱效率,随着芯片处理能力的增强,将使非正交传输技术在实际系统中的应用成为可能。
-
(35条消息) -5G:非正交多址接入(NOMA)与串行干扰删除(SIC)_串行干扰消除_sswzw_cll的博客-CSDN博客.
-NOMA:
---1、串行干扰删除(SIC)
-2、功率复用
-
(35条消息) -5G:非正交多址接入(NOMA)与串行干扰删除(SIC)_串行干扰消除_sswzw_cll的博客-CSDN博客.
--+对于LTE架构来说,网元包含的很多,其中,基站也是其中的一个网元,除此外还有MME、SGW、PDN等等。基站就是一个网元,基站和网元的关系类似苹果和水果的关系。网元划分的粒度很多,看用途了,有物理网元,逻辑网元,等效网元数等
-
CNN可视化:CNN +Explainer
+感知与通信从松耦合到完全一体化可分为三个等级:
-ISAC的作用:在增强定位能力和毫米级
+href="https://www.msra.cn/zh-cn/news/features/swin-transformer-v2#:~:text=Swin%20Transformer,%E6%98%AF%E4%B8%80%E4%B8%AA%E9%80%9A%E7%94%A8%E7%9A%84%E8%A7%86%E8%A7%89%20Transformer%20%E9%AA%A8%E5%B9%B2%E7%BD%91%E7%BB%9C%EF%BC%8C%E5%AE%83%E5%9C%A8%E7%89%A9%E4%BD%93%E6%A3%80%E6%B5%8B%E5%92%8C%E8%AF%AD%E4%B9%89%E5%88%86%E5%89%B2%E4%BB%BB%E5%8A%A1%E4%B8%AD%E5%A4%A7%E5%B9%85%E5%88%B7%E6%96%B0%E4%BA%86%E6%AD%A4%E5%89%8D%E7%9A%84%E7%BA%AA%E5%BD%95%EF%BC%8C%E5%B9%B6%E8%A2%AB%E5%B9%BF%E6%B3%9B%E5%BA%94%E7%94%A8%E4%BA%8E%E4%BC%97%E5%A4%9A%E8%A7%86%E8%A7%89%E4%BB%BB%E5%8A%A1%E4%B8%AD%EF%BC%8C%E5%A6%82%E5%9B%BE%E5%83%8F%E7%94%9F%E6%88%90%E3%80%81%E8%A7%86%E9%A2%91%E5%8A%A8%E4%BD%9C%E8%AF%86%E5%88%AB%E3%80%81%E8%A7%86%E8%A7%89%E8%87%AA%E7%9B%91%E7%9D%A3%E5%AD%A6%E4%B9%A0%E3%80%81%E5%9B%BE%E5%83%8F%E5%A4%8D%E5%8E%9F%E3%80%81%E5%8C%BB%E7%96%97%E5%9B%BE%E5%83%8F%E5%88%86%E5%89%B2%E7%AD%89%E3%80%82">Swin +Transformer迎来30亿参数的v2.0,我们应该拥抱视觉大模型吗?. ]]>