有关于torch multinomial采样
创始人
2024-03-28 05:32:19

解释

多项式采样,核心思想就是从一个概率分布中,采样n个样本的index,概率高的优先会被采样到。

以官方例子作为解释:

>>> weights = torch.tensor([0, 10, 3, 0], dtype=torch.float) # create a tensor of weights
>>> torch.multinomial(weights, 2)
tensor([1, 2])

如上述,对于一个概率分布[0, 10, 3, 0],从中采样两个样本。由于10最大,3其次,所以采样出来的结果是1,2。这个很好理解。

>>> torch.multinomial(weights, 4) # ERROR!
RuntimeError: invalid argument 2: invalid multinomial distribution (with replacement=False,
not enough non-negative category to sample) at ../aten/src/TH/generic/THTensorRandom.cpp:320
>>> torch.multinomial(weights, 4, replacement=True)
tensor([ 2,  1,  1,  1])

但是由于剩下两个样本的概率为0,因此不可能被采样到。即,对于[0, 10, 3, 0]这个概率分布,只有10和3两个样本能够被采样到。所以当采样数量设置为4的时候,就会报错。

这个时候需要设置参数replacement=True,也就是放回采样,可以重复采样到同一个样本。因此输出结果为[ 2, 1, 1, 1],可以看到第一个采样到的是3,随后采样到的一直都是10,因为10最大。


一些补充

  1. multinomial是一种非常常见的采样策略,在NLP生成任务中进行decoding的时候会经常用到。相似的采样方法还有greedy search、beam search。具体可以参见huggingface:text generation
  2. multinomial的输入不仅可以是一个一维的tensor,笔者尝试二维的输入也照样可以。采样的维度为1。比方说:
>>> softmax(i) ## [2,20]
tensor([[0.0478, 0.0138, 0.0332, 0.0305, 0.0653, 0.0146, 0.1430, 0.1126, 0.0552,0.0183, 0.0737, 0.0337, 0.0433, 0.0323, 0.0106, 0.0604, 0.0992, 0.0377,0.0722, 0.0027],[0.0183, 0.0085, 0.0519, 0.0160, 0.0411, 0.0356, 0.0217, 0.1620, 0.0172,0.0469, 0.0071, 0.0161, 0.3427, 0.0042, 0.0125, 0.0379, 0.0437, 0.0064,0.0298, 0.0804]])  
>>> torch.multinomial(softmax(i),1)  ## [2,1] 
tensor([[ 6],[19]])
>>> torch.multinomial(softmax(i),2)  ## [2,2]
tensor([[ 4,  7],[15,  0]])

参考:

torch multinomial官方文档

相关内容

热门资讯

稳固百亿基本盘!全棉时代筑牢消... 2025年,在国际贸易摩擦加剧、关税壁垒抬升,行业整体压力不减的背景下,稳健医疗(300888.SZ...
伊朗称在霍尔木兹海峡上空击落美... 人民财讯5月7日电,伊朗方面消息称,伊朗防空部队当地时间5日晚在霍尔木兹海峡上空击落了一架美军无人机...
CPO 概念行情火热 产业扩容... 5 月 7 日全球宏观盘面重磅洗牌,美元持续弱势震荡、美股全线冲高刷新历史新高,有色金属迎来强势拉升...
媒体视点 | 从“赚了多少钱”... 当新质生产力积厚成势,成为引领中国经济高质量发展的强大新引擎,中国资本市场的科技叙事逻辑更加清晰和具...
告别传统赏花!在黄浦,这十二座... (来源:上观新闻)2026年的春天,上海的城市公共空间里绽放出一片与众不同的春日胜景。新天地绿地里造...