python中softmax函数如何用?

舞姬之光
发布: 2025-11-26 18:39:16
原创
556人浏览过
答案:softmax函数将数值转换为概率分布,常用在分类任务中。使用NumPy可手动实现并提升数值稳定性,SciPy提供内置函数,PyTorch适用于深度学习场景,三者均保持输出总和为1且维持相对大小关系。

python中softmax函数如何用?

在 Python 中,softmax 函数常用于将一组数值转换为概率分布,通常用在分类任务的输出层。你可以使用 NumPy 或 PyTorch 等库来实现 softmax。下面介绍几种常见用法。

使用 NumPy 实现 softmax

NumPy 没有内置的 softmax 函数,但可以很容易地手动实现:

import numpy as np
<p>def softmax(x):</p><h1>减去最大值是为了防止溢出(数值稳定性)</h1><pre class='brush:python;toolbar:false;'>exp_x = np.exp(x - np.max(x))
return exp_x / np.sum(exp_x)
登录后复制

示例

logits = np.array([2.0, 1.0, 0.1]) probabilities = softmax(logits) print(probabilities)

输出类似:[0.659 0.242 0.098],总和为 1

注意:减去 np.max(x) 是为了提升数值稳定性,避免指数运算时溢出。

立即学习Python免费学习笔记(深入)”;

使用 SciPy 的 softmax

SciPy 提供了现成的 softmax 函数,更方便:

from scipy.special import softmax
<p>logits = np.array([2.0, 1.0, 0.1])
probabilities = softmax(logits)
print(probabilities)</p>
登录后复制

这个版本默认对最后一个轴进行操作,也支持多维数组。

如何用php图片处理函数
如何用php图片处理函数

如何用php图片处理函数

如何用php图片处理函数 393
查看详情 如何用php图片处理函数

使用 PyTorch 实现 softmax

如果你在做深度学习,PyTorch 提供了 torch.softmax

import torch
import torch.nn.functional as F
<p>logits = torch.tensor([2.0, 1.0, 0.1])
probabilities = F.softmax(logits, dim=0)
print(probabilities)</p>
登录后复制

dim=0 表示沿着第 0 维计算 softmax。对于二维输出(如批量数据),通常是 dim=1

softmax 的作用和特点

softmax 把任意实数向量变成概率分布:

  • 所有输出值在 0 到 1 之间
  • 总和等于 1
  • 相对大小关系保持不变,最大值对应最大概率

它常用于多分类问题中,配合交叉熵损失函数训练模型。

基本上就这些。根据你使用的库选择合适的方法,NumPy 手写、SciPy 快捷版或 PyTorch 深度学习集成方案都可以。关键是理解它的作用和数值稳定性处理。

以上就是python中softmax函数如何用?的详细内容,更多请关注php中文网其它相关文章!

python速学教程(入门到精通)
python速学教程(入门到精通)

python怎么学习?python怎么入门?python在哪学?python怎么学才快?不用担心,这里为大家提供了python速学教程(入门到精通),有需要的小伙伴保存下载就能学习啦!

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号