杂记

深度模型水印

水印分类

白盒

模型公开部分代码参数。

黑盒

模型不公开通过特殊指令生成特殊输出来验证,一般是通过构造触发集生成结果具有哈希的单向性,抵抗混淆攻击。

无盒

模型不在场进行验证,输出中自带水印。

水印作用

版权问题防止模型窃取。

多媒体水印,AIGC,模型水印区别

AIOT

音频攻击

记不清了(晕了已经

人工智能攻防关键技术研究

模型后门检测

通过特定像素区域的差分计算获得trigger和mask好像是用来还原图片的(直接变换的方式)
融合的那部分忘了。。。

模型探知

对抗样本在同模型下具有相同效果,准确率相差不大,通过设置对抗样本进行对方模型的目标检测。

模型训练数据删除

通过空间换时间,设置还原点训练模型,但是只用在了一般的模型上举例的是线性模型,决策树,和神经网络。但是大模型在实际可行性上不可行。
可以用于主动和被动遗忘。

人工智能大模型运用

通过训练模型实现辅助性工具和模型训练开发环境,以及知识库bot。

恶意安全秘密共享混洗协议

LDR(内核听不懂一点)

孪生驱动

孪生驱动就听懂了个沙箱隔离放到SeCore中同时降低对TCB的影响,确保安全内核轻量。普通系统和安全系统的一个孪生应该是这个意思。

隐私定义?

主观上的概念,主要是看数据对于一些用户是重要的是私密的,但在应用层面,在一定的应用场景下是需要让出一定的隐私信息获取相当的权益的实际上,这种观点认为隐私并不是说对于数据的绝对保密,而是动态的随着不同应用场景和权力需要进行的主观划分。(那意思不就是在一定的应用场景下对认为原来隐私的数据不是隐私的???我绷,隐私保护感觉变成了信任问题。。

差分隐私度量问题?

密码学100%,联邦学习差分隐私比较低,TE在中间。。


杂记
http://example.com/2024/02/26/杂记/
Author
DJocker
Posted on
February 26, 2024
Licensed under