Open WebUI

5个月前发布 11 0 0

Open WebUI简介 Open WebUI,为大模型提供用户友好界面,支持 Ollama 并兼容 Openai API。特色有直观聊天界面、响应式设计。支持代码高亮、Markdown、LaTeX、RAG 集成、网页浏览、预设提示、RLHF 注释、模型管理、多模型和多模态、历史记录管理、语音输入、高级参数调整等。Open WebUI功能...

收录时间:
2024-11-21 22:04:22
更新时间:
2025-05-01 18:40:34
Open WebUIOpen WebUI
Open WebUI
Open WebUI简介 Open WebUI,为大模型提供用户友好界面,支持 Ollama 并兼容 Openai API。特色有直观聊天界面、响应式设计。支持代码高亮、Markdown、LaTeX、RAG 集成、网页浏览、预设提示、RLHF 注释、模型管理、多模型和多模态、历史记录管理、语音输入、高级参数调整等。Open WebUI功能特征:直观的界面:我们的聊天界面从 ChatGPT 中汲取灵感,确保用户友好的体验。响应式设计:在桌面和移动设备上享受无缝体验。快速响应:享受快速响应的性能。轻松设置:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)无缝安装,获得轻松的体验。代码语法高亮:使用我们的语法高亮功能增强代码可读性。完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown 和 LaTeX 功能提升您的 LLM 体验,以丰富交互。本地 RAG 集成:通过开创性的检索增强生成 (RAG) 支持深入了解聊天交互的未来。此功能将文档交互无缝集成到您的聊天体验中。您可以将文档直接加载到聊天中或将文件添加到文档库中,使用提示符中的命令轻松访问它们。在 alpha 阶段,当我们积极改进和增强此功能以确保最佳性能和可靠性时,可能会偶尔出现问题。#网页浏览功能:使用命令后跟 URL 将网站无缝集成到您的聊天体验中。此功能允许您将 Web 内容直接合并到您的对话中,从而增强互动的丰富性和深度。#提示预设支持:使用聊天输入中的命令立即访问预设提示。毫不费力地加载预定义的对话启动器并加快您的交互速度。通过Open WebUI社区集成轻松导入提示。/RLHF 注释:通过竖起大拇指和竖起大拇指对消息进行评分来增强您的消息,从而促进创建用于人类反馈强化学习 (RLHF) 的数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。对话标记:轻松分类和定位特定聊天,以便快速参考和简化数据收集。下载/删除模型:直接从 Web UI 轻松下载或删除模型。文件模型创建:通过直接从 Web UI 上传 GGUF 文件,轻松创建 Ollama 模型。简化流程,可选择从您的机器上传或从 Hugging Face 下载 GGUF 文件。多模式支持:在不同的聊天模式之间无缝切换,实现多样化的互动。多模态支持:与支持多模态交互的模型无缝交互,包括图像(例如 LLava)。模型文件生成器:通过 Web UI 轻松创建 Ollama 模型文件。创建和添加角色/代理,自定义聊天元素,并通过Open WebUI社区集成轻松导入模型文件。多模型对话:毫不费力地同时与各种模型互动,利用它们的独特优势获得最佳响应。通过并行利用一组不同的模型来增强您的体验。协作聊天:通过无缝编排群组对话,利用多个模型的集体智慧。使用该命令指定模型,从而在聊天界面中启用动态和多样化的对话。让自己沉浸在编织在聊天环境中的集体智慧中。@OpenAI API 集成:毫不费力地集成与 OpenAI 兼容的 API,以便与 Ollama 模型进行多功能对话。自定义 API 基本 URL 以链接到 LMStudio、Mistral、OpenRouter 等。再生历史访问:轻松重新访问和探索您的整个再生历史。聊天记录:轻松访问和管理您的对话记录。导入/导出聊天记录:无缝地将您的聊天数据移入和移出平台。语音输入支持:通过语音交互与您的模型互动;享受直接与模特交谈的便利。此外,探索在静音 3秒后自动发送语音输入的选项,以获得简化的体验。使用高级参数进行微调控制:通过调整温度等参数和定义系统提示来获得更深层次的控制,以根据您的特定偏好和需求定制对话。外部 Ollama 服务器连接:通过配置环境变量,无缝链接到托管在不同地址上的外部 Ollama 服务器。基于角色的访问控制 (RBAC):使用受限权限确保安全访问;只有经过授权的个人才能访问您的 Ollama,并且为管理员保留独家模型创建/提取权限。后端反向代理支持:通过Open WebUI后端和Ollama之间的直接通信来增强安全性。此关键功能消除了通过 LAN 公开 Ollama 的需要。从 Web UI 向“/ollama/api”路由发出的请求从后端无缝重定向到 Ollama,从而增强了整体系统的安全性。持续更新:我们致力于通过定期更新和新功能来改进 Open WebUI。

数据统计

数据评估

Open WebUI浏览人数已经达到11,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:Open WebUI的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找Open WebUI的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于Open WebUI特别声明

本站400AI工具导航提供的Open WebUI都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由400AI工具导航实际控制,在2024年11月21日 22:04收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,400AI工具导航不承担任何责任。

相关导航

OOTDiffusion

OOTDiffusion

OOTDiffusion简介 OOTDiffusion:一个高度可控的虚拟服装试穿开源工具,可以根据不同性别和体型自动调整,和模特非常贴合。也可以根据自己的需求和偏好调整试穿效果,OOTDiffusion支持半身模型和全身模型两种模式。OOTDiffusionGitHub:https://github.com/levihsu/OOTDiffusionOOTDiffusion核心功能:OOTDiffusion基于潜在扩散模型技术,实现了高质量的服装图像生成和融合,确保试穿效果自然且逼真。OOTDiffusion支持两种模型虚拟试穿,一个是半身模型,专为上半身的服装试穿设计,适合T恤、衬衫等上身服装。另外一个是全身模型,支持全身的服装试穿,包括上身、下身和连衣裙等服装类型,用户可以根据需求选择适合的模型进行试穿。OOTDiffusion支持参数调整,你可以通过调整模型路径、服装路径、缩放比例和采样次数等参数来精细控制试穿的细节和效果,以满足不同的试穿需求。通过精心设计的算法,OOTDiffusion能够将选定的服装自然且逼真地融合到用户提供的模型图像中,无论是纹理、光影还是服装的自然摆动都能精确呈现。不过,试玩一下后,发现用OOTDiffusion自己的DEMO图片效果非常好,换了自已上传的素材,效果差很多,说明对人像位置体型,以及服装款式的要求还是比较高的。OOTDiffusion如何用?选择好性别、体型和右边的服装,然后点下面的RUN按钮,稍等十几秒就可以生成了。
MimicMotion

MimicMotion

MimicMotion简介 腾讯和上交大出的,MimicMotion可以生成任意长度、具有任何动作指导的高质量视频生成框架,可以生成细节丰富、逼真的人类动作视频,可以生成任意长度的视频内容,可以对视频内容进行精确控制,包括动作、姿势和视频风格等。类似阿里的通义舞王,但效果看起来比阿里通义舞王好很多,MimicMotion支持面部特征和唇形同步,不止可以搞跳舞视频,也可以做数字人。近年来,生成式人工智能在图像生成领域取得了重大进展,催生了多种应用。然而,视频生成在可控性、视频长度、细节丰富度等各方面仍面临相当大的挑战,阻碍了该技术的应用和普及。在这项工作中,我们提出了一种可控视频生成框架,称为 MimicMotion,它可以在任何运动指导下生成任意长度的高质量视频。与以前的方法相比,我们的方法有几个亮点。首先,通过置信感知姿势指导,可以实现时间平滑性,从而可以通过大规模训练数据增强模型的连贯流畅。其次,基于姿态置信度的区域损失放大显着减轻了图像的失真,能够显著减少生成图像中的扭曲和变形。最后,为了生成流畅的长视频,提出了一种渐进式潜在融合策略。通过这种方式,能够在可接受的计算资源消耗下,实现任意长度视频的生成。通过大量的实验和用户研究,MimicMotion 在多个方面比阿里的通义舞王的方法有了明显的改进。MimicMotion代码:https://github.com/Tencent/MimicMotionMimicMotion ComfyUI版本:https://github.com/aiFSH/ComfyUI-MimicMotion
Emote Portrait Alive

Emote Portrait Alive

Emote Portrait Alive简介 Emote Portrait Alive是阿里巴巴发布的EMO,一种音频驱动的AI肖像视频生成框架。输入单个参考图像和声音音频,例如说话和唱歌,Emote Portrait Alive就可以生成具有表情丰富的面部表情和各种头部姿势的声音肖像视频,让照片中的人物根据音频内容自然地张嘴说话或唱歌,面部表情和头部姿态非常逼真。同时,我们可以根据输入视频的长度生成任意持续时间的视频。Emote Portrait Alive功能和特点:音频驱动的视频生成:EMO能够根据输入的音频(如说话或唱歌)直接生成视频,无需依赖于预先录制的视频片段或3D面部模型。高表现力和逼真度:生成的视频具有高度的表现力,能够捕捉并再现人类面部表情的细微差别,包括微妙的微表情,以及与音频节奏相匹配的头部运动。无缝帧过渡:确保视频帧之间的过渡自然流畅,避免了面部扭曲或帧间抖动的问题,从而提高了视频的整体质量。身份保持:通过FrameEncoding模块,EMO能够在视频生成过程中保持角色身份的一致性,确保角色的外观与输入的参考图像保持一致。稳定的控制机制:采用了速度控制器和面部区域控制器等稳定控制机制,以增强视频生成过程中的稳定性,避免视频崩溃等问题。灵活的视频时长:可以根据输入音频的长度生成任意时长的视频,为用户提供了灵活的创作空间。跨语言和跨风格:训练数据集涵盖了多种语言和风格,包括中文和英文,以及现实主义、动漫和3D风格,使得EMO能够适应不同的文化和艺术风格。Emote Portrait Alive应用场景:唱歌视频生成:输入一张人物肖像照片和唱歌音频,EMO可以生成与音频同步且富有表现力的唱歌视频。说话视频生成:不仅限于唱歌,还可以处理说话音频,生成与语音同步的说话视频。多语言支持:支持多种语言的音频输入,能够生成不同语言下的人物肖像视频。跨风格应用:可以将不同风格(如动漫、3D模型等)的肖像图像与音频结合,生成具有特定风格的视频内容。Emote Portrait Alive不仅限于处理唱歌的音频输入,还可以容纳各种语言的口语音频。此外,Emote Portrait Alive还能够将过去的老照片、绘画以及 3D 模型和AI生成的内容制作成视频,为它们注入逼真的动作和真实感。
MotionAgent一站式视频生成工具

MotionAgent一站式视频生成工具

MotionAgent一站式视频生成工具简介 MotionAgent是一个能将用户创造的剧本生成视频的深度学习模型工具。用户通过我们提供的工具组合,进行剧本创作、剧照生成、图片/视频生成、背景音乐谱写等工作。其中,通义千问 -7B 模型可以帮助生成高质量的剧本内容,文本生成图片模型可以生成剧照,而核心模型 I2VGen-XL 可以将剧照转化为视频,最后音乐生成模型可以生成想要的音乐。通过 MotionAgent,用户可以将自己的创意轻松变成现实。MotionAgent功能特性1、剧本生成(Script Generation)用户指定故事主题和背景,即可生成剧本,剧本生成模型基于LLM(如Qwen-7B-Chat),MotionAgent可生成多种风格的剧本2、剧照生成(Movie still Generation)通过输入一幕剧本,MotionAgent即可生成对应的剧照场景图片3、视频生成(Video Generation)图生视频,支持高分辨率视频生成4、音乐生成(Music Generation)MotionAgent可自定义风格的背景音乐
YOLO-World

YOLO-World

YOLO-World简介 YOLO-World,腾讯ai实验室开发的一个实时目标检测工具,它能够自动识别和定位图像中的各种对象。YOLO-World在速度和准确性方面都优于许多最先进的方法。YOLO-World 是下一代 YOLO 检测器,旨在实时开放词汇目标检测。YOLO-World在大规模视觉语言数据集(包括Objects365、GQA、Flickr30K和CC3M)上进行了预训练,这使得YOLO-World具有强大的零样本开放词汇能力和图像落地能力,无需训练即可进行实时目标检测,即便某些物品之前没有见过,YOLO-World适用于物体检测和开放词汇实例分割。YOLO-World功能特点:1、大规模学习:YOLO-World通过学习大量的图片和对应的描述(如物品名称),获得了丰富的视觉知识和语言知识,这使得它能识别出广泛的物品。该项目在包括Objects365、GQA、Flickr30K和CC3M在内的大规模视觉-语言数据集上进行了预训练,赋予了YOLO-World强大的零样本开放词汇能力和图像中的定位能力。2、快速准确:YOLO-World在LVIS数据集上的零样本评估中达到了35.4 AP,并且在V100上的处理速度为52.0 FPS,速度和准确性均超过许多最先进的方法。即使是在包含复杂场景的图片中也能保持高准确率。YOLO-World 声称比 GroundingDINO 快 20 倍。3、零样本检测:最令人印象深刻的是,即便某些物品YOLO-World之前没有见过,它也能凭借先前的学习和理解能力,通过图片中的线索和上下文信息,成功识别和定位这些新物品,这意味着我们不必训练它来让它检测新的一类物体。我们只需要给出类名作为输入文本提示,模型将返回这些对象的边界框(如果存在)。4、理解物体:YOLO-World不仅依靠视觉信息,还结合了语言信息。它理解人类的语言描述,这让它能够识别出即使是之前没有直接见过的物体。5、与现有的开放词汇检测方法相比,YOLO-World模型至少快 20 倍。每秒可以处理大约 52 帧。6、在LVIS对象检测数据集上设置了最先进的新数据集。
ClotheDreamer

ClotheDreamer

ClotheDreamer简介 ClotheDreamer,一个虚拟试穿项目,可以从文本生成可穿戴3D服装,ClotheDreamer是上海大学、上海交通大学、复旦大学和腾讯优图实验室出的。ClotheDreamer功能特征:支持自定义服装模板,实现多样化、个性化3D服装生成生成的服装可以适应不同身材,并支持自动拟合ClotheDreamer,一种用于文本引导服装生成的新型系统,它使用 3D 高斯曲面 (3D GS) 对不同的服装几何形状进行建模。ClotheDreamer 允许用户从文本描述生成 3D 服装模型,从而实现更直观、更具表现力的服装设计。ClotheDreamer利用大型语言模型和 3D 高斯曲面的强大功能来生成详细、高质量的服装网格,以捕捉复杂的形状和褶皱。ClotheDreamer 这个工具允许你通过文字描述来创建衣服的3D模型。您无需使用复杂的 3D 建模软件自己设计衣服,只需输入描述,系统就会为您生成 3D 服装模型。ClotheDreamer 的关键创新是使用 3D 高斯曲面 (3D GS) 来表示服装的形状。高斯曲面是一种描述 3D 形状的数学方法,可以捕捉复杂的细节,如衣服上的褶皱和悬垂。通过将这种 3D 建模技术与强大的语言模型相结合,ClotheDreamer 可以将您的文本描述转换为高度逼真的 3D 服装模型。这使得设计衣服的过程更加直观和容易获得,因为您不需要专门的 3D 建模技能。您可以简单地描述您心目中的服装,ClotheDreamer 将以 3D 形式将其变为现实。这对于时装设计师、3D 艺术家或任何想要创建定制服装设计的人都很有用。ClotheDreamer技术说明ClotheDreamer 使用 GaussianDreamer: Fast Generation from Text to 3D 架构,根据文本描述生成 3D 服装模型。它利用预先训练的语言模型对输入文本进行编码,然后用于调节表示服装几何形状的 3D 高斯曲面的生成。ClotheDreamer在大型 3D 服装模型数据集及其相应的文本描述上进行训练。在推理过程中,使用语言模型对输入文本进行编码,此表示用于预测将形成最终服装网格的 3D 高斯曲面的参数。通过使用 3D 高斯曲面,ClotheDreamer 能够捕捉复杂的服装几何形状,包括褶皱、窗帘和其他复杂的细节。这使得系统能够生成高度逼真和多样化的服装模型,这些模型与输入的文本描述非常匹配。作者还提出了对基本 ClotheDreamer 模型的扩展,包括 LAGA:通过文本生成和自定义分层 3D 头像和着装代码:从文本生成服装的自回归缝纫,这进一步扩展了系统的服装生成和定制功能。ClotheDreamer局限性分析ClotheDreamer 系统代表了文本到 3D 生成领域的一个令人印象深刻的进步,展示了大型语言模型和 3D 高斯曲面在直观服装设计方面的潜力。将自然语言描述转换为高质量 3D 服装模型的能力可能会对时尚、3D 艺术和其他领域产生重大影响。然而,本文确实承认了当前方法的一些局限性。该系统在相对较小的 3D 服装模型数据集上进行训练,这可能会限制其推广到更多样化或非常规服装风格的能力。此外,3D 高斯曲面表示虽然可以有效地捕获复杂的几何图形,但可能并非适用于所有类型的服装特征,例如尖锐的折痕或高度不对称的形状。进一步的研究可以探索扩展数据集、改进 3D 表示以及增强系统处理更广泛的服装类型和款式的能力的方法。正如相关工作中所暗示的那样,将 ClotheDreamer 与其他 3D 建模工具或头像生成系统集成,也可以解锁该技术的新应用和用例。总的来说,ClotheDreamer代表了在寻求使3D服装设计更易于访问和直观方面迈出的令人兴奋的一步。随着文本到3D生成领域的不断发展,像 ClotheDreamer 这样的系统可能会成为设计师、艺术家和任何想要在数字领域将他们的服装创意变为现实的人越来越有价值的工具。
CustomNet

CustomNet

CustomNet简介 CustomNet旨在更好地将指定物品的图片融合到新生成的图片中,并确保原物品的样式和纹理细节得以还原。这项技术给商品图融合带来了一线生机。在文本到图像的生成过程中,将自定义对象纳入图像生成是一个极具吸引力的功能。然而,现有的基于优化和基于编码器的方法都存在一些缺陷,如优化耗时长、标识保存不足以及复制粘贴效应普遍存在等。为了克服这些局限性,我们引入了 CustomNet,这是一种新颖的对象定制方法,它将三维新颖视图合成功能明确纳入对象定制流程。这种整合有助于调整空间位置关系和视角,在有效保留对象特征的同时产生多样化的输出。此外,我们还引入了微妙的设计,通过文本描述或特定的用户自定义图像实现位置控制和灵活的背景控制,克服了现有三维新颖视图合成方法的局限性。我们还进一步利用数据集构建管道,更好地处理现实世界中的物体和复杂背景。有了这些设计,我们的方法无需进行测试时间优化就能实现零镜头对象定制,同时提供对位置、视点和背景的控制。因此,我们的自定义网络可确保增强的身份保护,并生成多样、和谐的输出。CustomNet 能够在一个统一的框架内同时控制视角、位置和背景,从而在有效保留物体特征和纹理细节的同时,实现和谐的定制图像生成。背景生成可以通过文本描述("生成 "分支)或提供特定的用户自定义图像("合成 "分支)来控制。
AI Companion App

AI Companion App

AI Companion App简介 ai Companion App,一键创建和训练属于你的AI伴侣/女朋友。AI Companion App提供了一套框架和开源工具,你可以根据自己的需求和想象,设定AI伴侣的个性、背景故事和能力,然后使用这个框架进行训练和部署。这样,每个人都可以拥有一个定制的AI伴侣,满足他们特定的需求和期望。你可以在浏览器上或通过SMS与你的AI伴侣进行聊天。AI Companion App允许你确定你的伴侣的个性和背景故事,并使用一个带有相似性搜索的向量数据库来检索和提示,使对话具有更深的深度。它还通过将对话保留在队列中并包含在提示中,提供了一些对话记忆。AI Companion App当前包含两种AI伴侣,一种基于大模型GPT,另一种是基于Vicuna的伴侣,都托管在Replicate平台上的。这些伴侣有很多可能的用例-浪漫(AI女友/男友)、友谊、娱乐、教练等。您可以通过您撰写的背景故事和您选择的模型来引导您的同伴找到理想的用例。