自从23年使用了GPT的LLM大语言模型和AI做了角色扮演后(AI扮演雪风,我作为用户扮演主角给出指令,链接放在楼下),这次进一步探索了Google的AI笔记本功能,基于最新的Gemini 2.0模型,可以更完美的融合文字、图片、音频和视频内容,真正的Multimodal(多模态)人工智能。
相比之前使用GPT的角色扮演模式下,整个交互过程更像是是文字版的语言游戏,虽然能模拟到一定程度的AI交互体验,但仍然有点隔靴搔痒,因为AI的性格特点只靠用户使用提示词(prompts)是很难完整概括的,所以就导致GPT模式下收到的反馈,很大程度上能感觉仍然是GPT本身的AI在给用户表演,而非完全沉浸式的体验。
这次的Google NotebookLM,则是直接可以把所有雪风的相关信息一次性上传,包括图片设定集(转成PDF)和小说三部曲。基于对完整上下文的理解,和所有的机械设定,就可以得到远远超出GPT模式下肤浅的交互体验,真正的做到深挖这部作品的精髓。
相比之前使用GPT的角色扮演模式下,整个交互过程更像是是文字版的语言游戏,虽然能模拟到一定程度的AI交互体验,但仍然有点隔靴搔痒,因为AI的性格特点只靠用户使用提示词(prompts)是很难完整概括的,所以就导致GPT模式下收到的反馈,很大程度上能感觉仍然是GPT本身的AI在给用户表演,而非完全沉浸式的体验。
这次的Google NotebookLM,则是直接可以把所有雪风的相关信息一次性上传,包括图片设定集(转成PDF)和小说三部曲。基于对完整上下文的理解,和所有的机械设定,就可以得到远远超出GPT模式下肤浅的交互体验,真正的做到深挖这部作品的精髓。