From fa8f7c003abddf107abb2642559de218caabecae Mon Sep 17 00:00:00 2001
From: ninglang
扇出系数的概念,计算
\(T_{cd}和T_{pd}\),为什么\(T_{cd}=0\)的时候,将无法信任电平?
-因为\(T_{cd}=0\),表面一旦高电平降低,那么电路进入无效区,这时候就需要重新,\(T_{cd}可以变大点\)
交流噪声容限(是指噪声信号是高频吗?)
TTL电源不允许大幅调整,不允许超过10%
TTL电路输入端通过电阻接地,电阻值R的大小直接影响电路所处的状态。
扇出系数的概念,计算
\(T_{cd}和T_{pd}\),为什么\(T_{cd}=0\)的时候,将无法信任电平?
+因为\(T_{cd}=0\),表面一旦高电平降低,那么电路进入无效区,这时候就需要重新,\(T_{cd}可以变大点\)
交流噪声容限(是指噪声信号是高频吗?)
TTL电源不允许大幅调整,不允许超过10%
TTL电路输入端通过电阻接地,电阻值R的大小直接影响电路所处的状态。
经过我们小组接近三个星期的努力,没错!它来了,毛概实践课的成果😁,它可能不是那么优秀,但的确是我们努力的成果
+ + + +看看我们的大合照😁:
+ + +哈哈哈,还希望大家不要吐槽我的眯眯眼😛,当时光线太强,实在睁不开眼,不是故意的哈😜。我的ps技术也不是很好,只能做成这样,还希望大家多多担待
+ +这次实践课给我留下印象还是很十分的深刻的,疫情期间,我这边(一个人在学校)要是没有室友们的帮助,估计是完成不了的,视频剪辑的时候,我和邵明禹哥哥把pr工程文件传来传去(每次都是2~3个G),邵明禹哥哥吐槽了n多次网络问题,我这边修改视频的时候,也不知道怎么回事,pr崩了5、6次,还把我的素材直接全部删除了😭,找也找不回,最后只能重新剪辑。
+ + +这次大家没能全员出镜,可以算得上团队火力没有全开吧,但是我个人感觉还是不错的,因为在刚开始选题的时候,就想要做一些有思想深度的视频,疫情期间,多个人不能见面的情况下,从个体的角度入手,个体和个体之间用一些手段连接,去拔高整个实践课的深度,我认为是可行的。
+ +总之,十分感谢那些和我一起走过这段道路的小伙伴,谢谢你们的付出,也谢谢那些帮助我们完成实践课的各位同学,就如视频所说,你们是冬天里的暖阳😉😉😉😉。
+]]>经过我们小组接近三个星期的努力,没错!它来了,毛概实践课的成果😁,它可能不是那么优秀,但的确是我们努力的成果
- - - -看看我们的大合照😁:
- - -哈哈哈,还希望大家不要吐槽我的眯眯眼😛,当时光线太强,实在睁不开眼,不是故意的哈😜。我的ps技术也不是很好,只能做成这样,还希望大家多多担待
- -这次实践课给我留下印象还是很十分的深刻的,疫情期间,我这边(一个人在学校)要是没有室友们的帮助,估计是完成不了的,视频剪辑的时候,我和邵明禹哥哥把pr工程文件传来传去(每次都是2~3个G),邵明禹哥哥吐槽了n多次网络问题,我这边修改视频的时候,也不知道怎么回事,pr崩了5、6次,还把我的素材直接全部删除了😭,找也找不回,最后只能重新剪辑。
- - -这次大家没能全员出镜,可以算得上团队火力没有全开吧,但是我个人感觉还是不错的,因为在刚开始选题的时候,就想要做一些有思想深度的视频,疫情期间,多个人不能见面的情况下,从个体的角度入手,个体和个体之间用一些手段连接,去拔高整个实践课的深度,我认为是可行的。
- -总之,十分感谢那些和我一起走过这段道路的小伙伴,谢谢你们的付出,也谢谢那些帮助我们完成实践课的各位同学,就如视频所说,你们是冬天里的暖阳😉😉😉😉。
-]]> +在刚开始学python的时候就对这一方面非常感兴趣,但是奈何当时实力太水,跟着mooc学了很久,也才刚刚把基础学完,连数据处理都不太会,而且在这次之前又学了一下c,三斤八两,啥都不会,刚开始在中国慕课mooc上跟着嵩天老师学习,发现他好多的例子都已经过时,很多之前能够爬取的网站现在已经无法爬取,当然也不是没有办法,只是我太水了,BeautifulSoup库也一直没有搞懂,因为我对html并不是很了解,于是乎chrome的审查工具用得也不是太好,刚好上次尝试了今日校园自动签到后,在优化那位大佬的程序时,我突然意识到里面很多的语法其实很有逻辑和体系,而他之所以能写出300多行的代码来造福广大学子,在于他强调的:“我模拟的整个今日校园的过程”,而这个过程,就是抓包,于是我在突然想起了点什么,我的fiddle,好像躺在我的电脑中睡了很久😂,后来在这个过程我想起的很多去年CTF教我的一些知识(但是我没学会),还有那个可爱的nmap
+ 打开开发者工具后,我们对我们输入的字符“are you +ok”,进行抓包,马上我们可以看到,其他的数据都是以图片的形式,而这里是一个多次出现,但是咋们不清楚的包,于是我们查看一下headers,发现是post方法,
+ +观察Response +,发现里面刚好有我们想要的翻译结果,于是我们只要模拟浏览器去post,然后接受相应的json数据格式,即可!
+ +我们首先还是要去看看这个post到底上传了什么form,然后这个header到底有什么要求,首先我们观察到了这个post的地址,但这里还是有坑,这是我后面的才发现的
+ +观察webform,把它复制粘贴到代码就可以了
+ +
+但是,这里有问题了:返回值有问题,百度一下,原来那个网址有问题,只能是http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule
+,_o
必须要被去掉 (这里是因为有道翻译的反爬虫机制)
把url改回来,再使用json的loads函数将数据转化为字典,提取出翻译就可以了,把它改的更人性化一点,例如接受输入可以多次输入,ok,这样咋们就实现了在cmd里翻译啦!
+ + + 如图,爬取百度图片结果的所有图片,打开开发者工具,找出图片的实际地址,多观察几张,发现这个图片都在<li>
标签下
这时候我们可以选择BeautifulSoup或者re正则表达式,我使用了正则表达式,提取了所有的图片url,然后把这些链接全部get即可
+ +这样就把一页的图片全部爬取下来啦,至于为什么只有把29张,是因为百度的图片加载使用了一种叫做Ajax
技术,这样的话只能采取别的方法去爬取了,我现在还不知道如何突破😂
+刚好看到B站也有相关的学习视频,方法和上面的第一个第二一样,算是两者的综合吧,需要用到re(或者BeautifulSoup),设置好请求头,我自己做这个的时候,并没有添加很多对用户界面很友好的东西,但是还是去借鉴了一下前辈的经验,弄了个进度条
+先下载这个压缩包
+整体来说网速还是不是错的,我家是100兆的光纤,由于我的电脑离路由器比较远,网速只有这个效果,但是这个这个爬虫还是能够把我家的网爬满。
+ + +先把压缩包解压,一个放在D盘,一个放在桌面,第二,配置环境变量,再上方的用户变量的PATH中双击然后打开
+ + +找到D盘里的刚刚放进去的ffmpeg
打开bin
+目录,把那个文件夹地址复制,例如我的是D:\ffmpeg-N-100892-g44e27d937d-win64-lgpl-shared-vulkan\bin
粘贴到新增的Path中,然后一路ok,添加完用户变量,就可以使用软件了
软件的使用很简单,它的界面只是一个终端界面,你只要将B站视频网址粘贴,回车即可,默认视频的最高画质(不开会员的情况下)😂
+ +为什么要把它添加到环境变量呢,因为B站爬取的视频其实是分音频和视频的,而ffmpeg是一个音视频处理软件,我是先将音频(1.mp3
)和视频(2.mp4
)分别爬取,然后用ffmpeg把它们拼接在一起(自动删除1.mp3和1.mp4)
,我找了很多教程,实在不会把ffmpeg源代码整合到我的代码中,于是就需要它的存在,并且要把它配置为用户变量,否则
-在刚开始学python的时候就对这一方面非常感兴趣,但是奈何当时实力太水,跟着mooc学了很久,也才刚刚把基础学完,连数据处理都不太会,而且在这次之前又学了一下c,三斤八两,啥都不会,刚开始在中国慕课mooc上跟着嵩天老师学习,发现他好多的例子都已经过时,很多之前能够爬取的网站现在已经无法爬取,当然也不是没有办法,只是我太水了,BeautifulSoup库也一直没有搞懂,因为我对html并不是很了解,于是乎chrome的审查工具用得也不是太好,刚好上次尝试了今日校园自动签到后,在优化那位大佬的程序时,我突然意识到里面很多的语法其实很有逻辑和体系,而他之所以能写出300多行的代码来造福广大学子,在于他强调的:“我模拟的整个今日校园的过程”,而这个过程,就是抓包,于是我在突然想起了点什么,我的fiddle,好像躺在我的电脑中睡了很久😂,后来在这个过程我想起的很多去年CTF教我的一些知识(但是我没学会),还有那个可爱的nmap
- 打开开发者工具后,我们对我们输入的字符“are you -ok”,进行抓包,马上我们可以看到,其他的数据都是以图片的形式,而这里是一个多次出现,但是咋们不清楚的包,于是我们查看一下headers,发现是post方法,
- -观察Response -,发现里面刚好有我们想要的翻译结果,于是我们只要模拟浏览器去post,然后接受相应的json数据格式,即可!
- -我们首先还是要去看看这个post到底上传了什么form,然后这个header到底有什么要求,首先我们观察到了这个post的地址,但这里还是有坑,这是我后面的才发现的
- -观察webform,把它复制粘贴到代码就可以了
- -
-但是,这里有问题了:返回值有问题,百度一下,原来那个网址有问题,只能是http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule
-,_o
必须要被去掉 (这里是因为有道翻译的反爬虫机制)
把url改回来,再使用json的loads函数将数据转化为字典,提取出翻译就可以了,把它改的更人性化一点,例如接受输入可以多次输入,ok,这样咋们就实现了在cmd里翻译啦!
- - - 如图,爬取百度图片结果的所有图片,打开开发者工具,找出图片的实际地址,多观察几张,发现这个图片都在<li>
标签下
这时候我们可以选择BeautifulSoup或者re正则表达式,我使用了正则表达式,提取了所有的图片url,然后把这些链接全部get即可
- -这样就把一页的图片全部爬取下来啦,至于为什么只有把29张,是因为百度的图片加载使用了一种叫做Ajax
技术,这样的话只能采取别的方法去爬取了,我现在还不知道如何突破😂
-刚好看到B站也有相关的学习视频,方法和上面的第一个第二一样,算是两者的综合吧,需要用到re(或者BeautifulSoup),设置好请求头,我自己做这个的时候,并没有添加很多对用户界面很友好的东西,但是还是去借鉴了一下前辈的经验,弄了个进度条
-先下载这个压缩包
-整体来说网速还是不是错的,我家是100兆的光纤,由于我的电脑离路由器比较远,网速只有这个效果,但是这个这个爬虫还是能够把我家的网爬满。
- - -先把压缩包解压,一个放在D盘,一个放在桌面,第二,配置环境变量,再上方的用户变量的PATH中双击然后打开
- - -找到D盘里的刚刚放进去的ffmpeg
打开bin
-目录,把那个文件夹地址复制,例如我的是D:\ffmpeg-N-100892-g44e27d937d-win64-lgpl-shared-vulkan\bin
粘贴到新增的Path中,然后一路ok,添加完用户变量,就可以使用软件了
软件的使用很简单,它的界面只是一个终端界面,你只要将B站视频网址粘贴,回车即可,默认视频的最高画质(不开会员的情况下)😂
- -为什么要把它添加到环境变量呢,因为B站爬取的视频其实是分音频和视频的,而ffmpeg是一个音视频处理软件,我是先将音频(1.mp3
)和视频(2.mp4
)分别爬取,然后用ffmpeg把它们拼接在一起(自动删除1.mp3和1.mp4)
,我找了很多教程,实在不会把ffmpeg源代码整合到我的代码中,于是就需要它的存在,并且要把它配置为用户变量,否则
CNN可视化:CNN -Explainer
-CNN可视化:CNN +Explainer
+