网页游戏开服表-9K9K.COM  适龄提示:建议18岁以上
当前位置:网站首页 > APP应用市场 > MNN Chat
MNN Chat
MNN Chat
  • 类型:生活助手
  • 时间:2025-03-31 10:25
  • 大小:15.37MB
  • 版本:0.3.0
  • 系统:安卓
  • 星级:
  • 语言:简体中文
  • 授权:免费版
  • 厂商:互联网
  • MD5:ABEE44E4AD4A9A39FAE1D419D8B2EC99
  • 包名:com.alibaba.mnnllm.android
  • 权限:查看权限
  • 隐私说明 : 点击查看
  • 标签: AI技术

用手机扫描下载

  • 360检测
  • 腾讯管家
应用简介

MNN Chat是一款由阿里巴巴开源的多模态大模型应用,它能够在手机端独立运行大型模型,无需外部服务器支持。该应用广泛兼容多种模型和多模态任务,并对CPU推理性能进行了深度优化,从而确保了用户数据的安全性及隐私保护。无论是进行文本创作还是图像识别,MNN Chat都能带给用户丝滑流畅的AI交互体验。

MNN Chat手机大模型怎么用?

1、首先,从本站下载MNN Chat手机大模型安装包;

2、打开软件后,根据个人需求选择想要部署的AI模型;

3、请注意,为确保本地部署顺畅,手机需预留至少10GB的内存空间;

4、模型下载完毕后,即可通过该软件与AI进行流畅的对话交流;

5、软件支持多语言输入,无限制词聊天,且本地部署模式下无需网络连接即可使用。

详细使用攻略可看文档:https://mnn-docs.readthedocs.io/en/latest/transformers/llm.html

MNN Chat是什么软件?

MNN是一个轻量级的深度神经网络引擎,支持深度学习的推理与训练。适用于服务器/个人电脑/手机/嵌入式各类设备。目前,MNN已经在阿里巴巴的手机淘宝、手机天猫、优酷等30多个App中使用,覆盖直播、短视频、搜索推荐、商品图像搜索、互动营销、权益发放、安全风控等场景。

MNN-LLM是基于MNN引擎开发的大语言模型运行方案,解决大语言模型在本地设备的高效部署问题(手机/个人电脑/嵌入式设备)。支持常见的千问/百川/智谱/LLAMA等大语言模型。

多模态功能:

涵盖文本到文本、图像到文本、音频转文本以及文本生成图像等多种应用场景。

CPU推理性能提升:

在安卓平台上,MNN-LLM展现出显著的CPU优化效果,预填充速度相比llama.cpp提升了8.6倍,解码速度也加快了2.3倍。

模型兼容范围广泛:

支持众多知名模型提供商,如Qwen、Gemma、Llama(含TinyLlama与MobileLLM)、Baichuan、Yi、DeepSeek、InternLM、Phi、ReaderLM及Smolm等。

本地化运行:

所有操作均在设备本地执行,保障数据隐私安全,无需上传至外部服务器。

体积小巧轻便:

APK安装包体积紧凑(核心引擎仅约800KB),节省存储空间,对设备性能影响微乎其微。

离线工作模式:

无需网络连接,所有计算均在本地完成,既节省流量又保护用户隐私。

功能介绍:

1、核心功能(即模型推理,支持CPU+GPU)实现独立无依赖,代码结构精简,非常适合部署至移动设备及各类嵌入式系统。

2、针对iOS平台,提供功能完整的MNN静态库,支持armv7及arm64架构,库文件大小约为12MB,集成至应用程序后,将增加约2MB的可执行文件大小。若对核心功能进行裁剪,静态库大小可缩减至6.1MB,相应增加的可执行文件大小为600KB。

3、对于Android平台,核心功能以armv7a架构的c++_shared动态库形式提供,大小约为800KB。

4、软件支持Mini编辑选项,可进一步缩减包体积,相较于基础库大小,约能减少25%。

5、软件还具备模型压缩与量化功能,支持FP16/Int8格式,可有效降低模型体积,减少幅度可达50%至75%。

通用性特点:

1、兼容 Tensorflow、Caffe、ONNX、Torchscripts 等多种主流模型文件格式,并适配 CNN、RNN、GAN、Transformer 等主流网络架构。

2、具备多输入多输出能力,可处理任意维度的输入输出数据,支持动态输入(即输入大小不固定),同时兼容含有控制流的模型。

3、算子库丰富,涵盖 178 个 Tensorflow 操作符、52 个 Caffe 操作符、163 个 Torchscripts 操作符、158 个 ONNX 操作符(ONNX 操作符基本实现全面支持)。

4、广泛适用于服务器、个人电脑、手机以及具有POSIX接口的嵌入式设备,支持利用这些设备的 CPU、GPU 进行计算,同时部分设备还支持 NPU 计算(如 IOS 11 及以上版本的 CoreML、华为 HIAI、Android NNAPI)。

5、操作系统兼容性强,支持 Windows、iOS 8.0 及以上版本、Android 4.3 及以上版本、Linux 以及具有POSIX接口的其他操作系统。

软件特色:

1、全面适配iOS、Android、PC、Server的CPU架构,通过SIMD代码或手写汇编优化核心运算,使单线程下运行常见CV模型接近设备算力极限。

2、支持利用Metal、OpenCL、Vulkan技术,在移动端设备上通过GPU进行高效推理。

3、支持通过CUDA技术,在PC或Server上的NVIDIA GPU上实现更快速的推理。

4、广泛采用Winograd卷积算法提升卷积性能,并首次在业界实现转置卷积的Winograd算法优化与矩阵乘的Strassen算法优化,显著提升运算速度。

5、支持低精度计算(int8、fp16、bf16),并针对ARMv8.2和AVX512架构进行指令优化,实现更好的加速效果。

6、支持使用MNN算子进行数值计算,功能覆盖numpy常用操作。

7、提供MNN CV模块,支持图像仿射变换、归一化等常用图像处理功能,且在armv7a架构下占用空间小于100k。

8、支持跨平台模型训练,尤其擅长移动端模型训练。

9、支持Python语言调用,方便用户进行二次开发和集成。

应用截图
  • MNN Chat截图
  • MNN Chat截图
  • MNN Chat截图
  • MNN Chat截图
  • MNN Chat截图
相同类型
最新资讯