1.��bվ��վԴ��
2.JS逆向破解第三方Bilibili视频下载加密策略(2)
3.如何在WebUI中生成接近NovelAI官网的站网站源效果并进行相似度测试
4.b站草稿保存哪里去了
5.怎么获取B站视频封面?
��bվ��վԴ��
近年来python越来越火,很多培训机构和高校都开展了python的码仿课程。其实学python并没有那么的网站难,学习python这几个网站就够了。源码第一个:菜鸟教程网址:/python/python-tutorial.html
这是站网站源一个比较好的网站,里面的码仿asp源码 在线聊天教程比较适合新手学习,也比较简介。网站
第二个:python中文学习大本营网址:/
里面有很多各种关于python的源码编程,我觉得就很好。站网站源
第三个:B站里面的码仿视频都很详细,如果这都学不会真没办法了。网站
最后一个:GitHub这里面有大量的源码源码,如果不会利用,站网站源那真的码仿是浪费资源了。多看看别人是网站怎么写代码的,别人的思维模式是什么,这个非常有用。
欢迎和我讨论有关程序的问题,也可以答疑。关注公众号:诗一样的代码,交一个朋友。
JS逆向破解第三方Bilibili视频下载加密策略(2)
本文探讨一个与先前介绍的网站类似的平台,该网站提供免费API用于下载B站视频,但限于P清晰度。网站的加密策略颇为新颖,值得分析。具体步骤如下:
首先,用户需要进行两次POST请求。第一次请求中,需提供B站视频链接、时间戳以及一个加密参数sign,响应则返回加密后的B站视频链接。
第二次请求则基于第一次的微商城源码 手机商城源码响应url,包含同样的时间戳与不同的加密参数sign,以及固定的username和otype,请求结果是加密的image和video地址。
在Network标签页中,未在sources中找到sign信息,源码中也未直接揭示其来源。此时,选择加入XHR断点,揭示了名为jiexi的函数,其用于生成sign。sign的生成基于时间戳、url以及额外的字符串或键值。这些函数在混淆的JS文件中定义,但通过观察发现,sign总是位,猜测为MD5加密。
通过在线加密验证,确认了该猜测的正确性。接着,实现解密过程,将hex转换为二进制字符,以获取视频地址。
然而,该网站存在一些问题。jiexi函数中的key值在JS文件中固定,但会随时间动态变化,给实际应用带来不便。此外,下载的视频质量较低,不值得继续深入研究。该网站对源码的保护也较为严格,存在一定的易语言辅助源码源码大全技术壁垒。
总结,尽管该网站提供了一种独特的加密策略,但其限制和质量问题,以及源码保护策略,使得进一步研究的兴趣减退。对于希望探索更多视频下载策略的开发者,可能需要寻找其他途径或平台,以实现更高效、兼容性更好的视频下载解决方案。
如何在WebUI中生成接近NovelAI官网的效果并进行相似度测试
本次要为大家带来的是如何在WebUI中生成接近NovelAI官网的效果并进行相似度测试,一起来看看吧。(本文转载自B站用户:九姨啊啊啊啊啊)
写在前面:
1.接近,接近,接近,目前来说只能做到无限接近官网,但做到一模一样仍然不行。
2.目前大家仍然在不断的研究,不代表以后不会出现新的设置。
3.这个只是想要给生成接近NovelAI官网的效果的人这样设置的,并不是说不这样设置就是不好的,本人鼓励大家可以自己挖掘更好玩更适合你自己的参数设置。
(注意:以下内容确保你使用的模型包为animefull-final-pruned,模型hash是e9)
正片开始:你需要调试的设置↓
通过执行以下操作,可以创建与NovelAI 当前订阅服务默认的相同的输出:
如果你要模仿官网的k_euler采样器的生成效果
- 将采样器设置为Euler
- Step设置为
- CFG Scale设置为
(注意,以上Step与CFG的数值为官网默认数值,用人话讲就是你第一次进这个网站的数值就是这两个。不代表你不能调整,因为官网这个也是能自己调的,比如你官网里CFG拉到,你在WebUI中也一样拉到就是了)↑
- 在所有正面提示词在开头都加上masterpiece, best quality(对应官网的Add Quality Tags开关)
官网勾上这个就是自动帮你加上那两个词
- 在所有负面提示词在开头都加上nsfw, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry(对应官网的Low Quality + Bad Anatomy选项)
官网勾上这个就是自动帮你加上面那堆
- 在 Settings 选项卡中,将Stop At last layers of CLlP model更改为2并记得保存设置
-如果你要模仿官网的k_euler_ancestral采样器的生成效果,除了上述默认设置外,智能源码与源码区别还必须执行以下操作:
- 在Settings 选项卡中将“Eta noise seed delta”设置为
- 将采样器设置为Euler_A
(注意:如果你在之前看别的教程将eta (noise multiplier) for ancestral samplers设置成0.,0.之类的,需要拉回默认的1)
需要设置成1
(关键点补充:关于NovelAI官网与WebUI各自权重表达不同的问题)
非常感谢@zvvvjzj 用户与我讨论了这个问题,是关于提示词权重的
首先我们要知道NovelAI官网使用的加重权重用的是 { },削减用的是[ ],{ }具体表示提升1.倍权重,[ ]则是降低1.倍。
但是在WebUI中,我们不使用{ },而是使用( ),且我们的( )提升的权重为1.1倍。
所以你直接把别人带{ }的TAG直接copy进WebUI,他会无事发生,因为WebUI用的是( )
而且两家的权重数值也不一样,一个是1.一个是1.1,所以你直接换括号形式也是不行的,不过别急,我们可以在括号里打上你具体想增加的权重值。
具体的转化操作是:
{ masterpiece}=(masterpiece:1.)
{ { masterpiece}}=(masterpiece:1.)怎么算的?(1. = 1*1.*1.)
[masterpiece]=(masterpiece:0.)怎么算的?(0. = 1/1.)
[[masterpiece]]=(masterpiece:0.)怎么算的?(0. = 1/1./1.)
以此类推。
(@zvvvjzj 用户还提出了他的一个想法,那就是直接通过修改WebUI的代码直接改成对应的{ }与1.,不过我的想法是,如果需要做到改代码来强行做到匹配,那不如直接用Naifu还更加方便。)
所以如果发现设置完后仍然出现差距较大的情况,请考虑是否没有进行对应的权重转化。
测试环节(测试你们是否正确设置或发现错误):
welcome to the "hello world" test for webui, or as i like to call it, "hello asuka", euler edition. this is meant to verify that you have everything installed and configured properly. below are outputs caused by common mistakes. remember, this is only a starting point if you wish to imitate the original site. experimentation is encouraged!
credit to AIAMIAUTHOR at /AUTOMATIC/stable-diffusion-webui/discussions/ for their thorough documentation of the settings with proof.
一、Euler采样器篇
这是一张用NovelAI官网生成的图,以此来进行相似度测试
你在WebUI中需要的设置:
正面提示词:masterpiece, best quality, masterpiece, asuka langley sitting cross legged on a chair
负面提示词:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts,signature, watermark, username, blurry, artist name
Steps: , Sampler: Euler, CFG scale: , Seed: , Size: x, Model hash: e9, Clip skip: 2
(Tips1:有人看到上面的CFG scale是会疑惑,正如我上面所说,只是官网进去的时候默认的数值,而上面用官网跑的需要修改源码如何保护源码图也是作者自己设置成罢了,WebUI跟着就行)
(Tips2:这里没有将“Eta noise seed delta”设置为,是因为如果模仿k_euler的采样器效果是不需要设置的)
然后你就可以开始跑一张试试看了,下面是可能出现的问题
↑请注意,在左图中,她左腿上的红色和皮肤之间的分离变得更加清晰,或者右图中的毛巾略有不同。您是否使用 --medvram、--lowvram 或 ----no-half 选项启动 webui?如果是这样,那么您就可以了,这些选项由于其工作方式而导致输出发生非常轻微的变化是正常的。这种规模的变化对于使用 --xformers 的人来说也很常见。:)您可能会看到非常细微的变化,但它仍然应该是%相似,这完全没有问题。
↑vae权重未加载。确保vae文件名是否正确设置(模型名称.vae.pt)。
↑“CLlP”配置不正确。将Setting中的“Stop At last layers ofCLlPmodel”设置为2。
↑v2.pt 已安装并启用。取消选中“使用 v2.pt”(我裁了一下怕不过审orz)
↑没有用正确的采样器,请检查是否正确使用了Euler采样器(同样裁掉了可能影响审核的部分orz)
↑你激活了一个hypernetwork。请将“stable diffusion finetune hypernetwork”设置为“None”
↑使用了错误的模型,请检查你的模型是否为“animefull-final-pruned”版本
↑左上角是对的。如果您出现不同效果,请检查Step与CFG
↑原图是生成了三条腿,为了沈河裁掉了。请检查你是否在负面提示词中把“Negative prompt:”也一起加进去了
↑正面提示中没加上“masterpiece, best quality”。官网在“Add Quality Tags”中自动帮你添加这些,但webui用户必须手动添加。是的,这就是为什么测试提示里有两个“masterpiece”
↑你是cpu烤面包机兄弟吗?我不知道为什么,但是在cpu-only模式下运行 webui 会产生完全不同的结果。(就是说你可能用CPU跑了)
↑你用的是ti吗?我收到了一些 ti 用户的报告,尽管他们反复检查了他们的设置,但他们的asukas始终失败。我尽我所能确认他们的配置没有问题,所以在我看到其他证据之前,这可能最终成为一个边缘案例。:(
↑如果你得到的东西与目标图像不太相似,首先检查你的种子,然后处理其他设置。祝你好运!
二、Euler a采样器篇
这也是NovelAI官网生成的图,与上面不同的是使用的是k_euler_ancestral采样器
你在WebUI中需要的设置:
正面提示词:masterpiece portrait of smiling Asuka \(evangelion\), evangelion \(Hideaki\), caustics, textile shading, high resolution illustration, blue eyes, contempt, feminine, woman disdain, disgust, no pupils, hair over face,orange hair, long hair, red suit, ilya kuvshinov
负面提示词:nsfw, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, headdress, loli,
Steps: , Sampler: Euler a, CFG scale: , Seed: , Size: x, Model hash: e9, Clip skip: 2, ENSD:
(Tips1:再提醒一遍现在是Euler a时间,跟上方的用的Euler不是同一种采样器)
(Tips2:所以你看到这里多了ENSD: ,说明这里需要将“Eta noise seed delta”设置为,因为我们现在要模仿官方k_euler_ancestral采样器效果)
然后你就可以开始跑一张试试看了,下面是可能出现的问题
↑她右肩的头发和头顶的**高光在两张照片中都略微偏离。您是否使用 --medvram、--lowvram 或 ----no-half 选项启动 webui?如果是这样,那么您就可以了,这些选项由于其工作方式而导致输出发生非常轻微的变化是正常的。这种规模的变化对于使用 --xformers 的人来说也很常见。:)您可能会看到非常细微的变化,但它仍然应该是%相似,这完全没有问题。
↑vae权重未加载。确保vae文件名是否正确设置(模型名称.vae.pt)。(这个发现有点困难,你会发现颜色饱和度不一样。)
↑你没未配置 ensd。将设置中的“Eta noise seed delta”设置为 。
↑“CLlP”配置不正确。将Setting中的“Stop At last layers ofCLlPmodel”设置为2。
↑v2.pt 已安装并启用。取消选中“使用 v2.pt”
↑括号没有转义。当您希望生成器按字面意思解释括号时,请记住转义(在前面添加反斜杠)括号,例如 danbooru 样式的“字符 \(series\)”标记。(这里涉及到源代码的使用,不深究,简单来说就是可能符号没打对)
↑用了错误的采样器。检查是否正确选择了采样方法“Euler a”
↑你激活了一个hypernetwork。请将“stable diffusion finetune hypernetwork”设置为“None”
↑使用了错误的模型,请检查你的模型是否为“animefull-final-pruned”版本
↑左上角是对的。如果您出现不同效果,请检查Step与CFG
↑请检查你是否在负面提示词中把“Negative prompt:”也一起加进去了
↑你是cpu烤面包机兄弟吗?我不知道为什么,但是在cpu-only模式下运行 webui 会产生完全不同的结果。(就是说你可能用CPU跑了)
↑你用的是ti吗?我收到了一些 ti 用户的报告,尽管他们反复检查了他们的设置,但他们的 asukas 始终失败。我尽我所能确认他们的配置没有问题,所以在我看到其他证据之前,这可能最终成为一个边缘案例。:(
↑如果你得到的东西与目标图像不太相似,首先检查你的种子,然后处理其他设置。祝你好运!
结束,附上各种原帖
/a/DCYJCSX
/a/s3llTE5
/AUTOMATIC/stable-diffusion-webui/discussions/
以上就是如何在WebUI中生成接近NovelAI官网的效果并进行相似度测试的全部内容了,希望对大家有帮助。更多攻略资讯关注游戏网。
b站草稿保存哪里去了
b站草稿查看保存的方法如下:
1、打开b站app,点击右下角的我的。
2、进入个人页面,点击创作中心下的稿件管理。
3、在稿件管理界面点击右上角的草稿箱。
4、进入草稿箱,可以看到自己保存的草稿。
哔哩哔哩现为中国年轻世代高度聚集的文化社区和视频平台,该网站于年6月日创建,被粉丝们亲切的称为“B站”。B站早期是一个ACG(动画、漫画、游戏)内容创作与分享的视频网站。经过十年多的发展,围绕用户、创作者和内容,构建了一个源源不断产生优质内容的生态系统,B站已经涵盖多个兴趣圈层的多元文化社区,曾获得QuestMobile研究院评选的“Z世代偏爱APP”和“Z世代偏爱泛娱乐APP”两项榜单第一名。并入选“BrandZ”报告最具价值中国品牌强。
年4月日,针对“后台源码泄露”一事,B站做出回应:经内部紧急核查,确认该部分代码属于较老的历史版本,5月日,哔哩哔哩发布通知称,因弹幕系统技术升级,5月日起至6月6日网站暂时关闭弹幕功能。
怎么获取B站视频封面?
探索B站视频封面的秘密:从新手到专业爬虫之旅
在探索B站视频世界时,你是否曾想过批量获取UP主视频封面的原图?这激发了我用Python编织出一个小小的爬虫。起初,我设想的策略简单明了:直接访问视频页面,解析HTML,寻找那隐藏在img标签中的宝藏。然而,现实并不总是那么顺遂,直接的HTTP请求未能揭示完整的页面,仿佛被一层神秘的面纱遮挡。
我开始深入研究,每一步都充满了挑战。源代码揭示了页面的幕后操作,如同一场精心编排的舞台剧,对我这个C++背景的开发者来说,对Web前端世界的理解显得有些陌生,但这也恰好证明了它的专业魅力和学习深度。我决定硬着头皮继续探索,发现了一个隐藏的API线索,它直接提供了*的高清原图。
这个发现如同一道曙光,我调整了策略,不再依赖页面解析,而是直接从API获取JSON数据,从中提取地址,代码精简到了仅二十几行。这个小小的转变,让获取封面变得如行云流水般顺畅。更进一步,我了解到,只需要稍加F的辅助,就可以轻松抓取其他UP主的封面API地址,进行替换,完成批量获取。
这个初步的爬虫之旅,让我意识到,虽然它只是一个简单的起点,但深入学习Web爬虫技术,如老陈和崔大等大牛的教程,无疑会带来更深的理解和技能提升。然而,我要强调,这仅限于获取资源,我们并不鼓励借此为UP主引流,尤其是那些因台独言论而备受关注的争议事件。UP主的行为模式随着时间而演变,早期以正直内容吸引关注,后来为了增加粉丝数量,可能会采用一些边缘策略,这是值得B站管理层关注并严格审查的。
总的来说,通过这次经历,我明白了B站视频封面背后的技术细节,也体验了从新手到熟练掌握爬虫技术的转变。对于有志于此的你,这无疑是一个值得学习和实践的领域。但请记住,尊重版权,合理使用,让技术服务于美好,才是我们追求的目标。