跳转至

12 添加用户体验⚓︎

用户体验是构建应用程序的一个非常重要的方面。 用户需要能够有效地使用您的应用程序来执行任务。 高效是一回事,但您还需要设计应用程序,以便每个人都可以使用它们,使它们“易于访问”。 本章将重点讨论这一领域,希望最终设计出一个人们可以并且想要使用的应用程序。

本章概述⚓︎

用户体验是指用户如何与特定产品或服务(无论是系统、工具还是设计)进行交互和使用。 在开发人工智能应用程序时,开发人员不仅注重确保用户体验有效,而且注重道德。 在本课程中,我们将介绍如何构建满足用户需求的人工智能 (AI) 应用程序。

本课程将包含以下内容:

  • 用户体验简介和了解用户需求
  • 设计人工智能应用程序以实现信任和透明度
  • 设计用于协作和反馈的人工智能应用程序

学习目标⚓︎

学习完本课程后,您将会了解到:

  • 了解如何构建满足用户需求的人工智能应用程序。
  • 设计促进信任和协作的人工智能应用程序。

先决条件⚓︎

花一些时间阅读有关用户体验和设计思维的更多信息。

用户体验简介和了解用户需求⚓︎

在我们虚构的教育初创公司中,我们有两个主要用户:教师和学生。 这两个用户都有独特的需求。 以用户为中心的设计优先考虑用户,确保产品与其预期目标相关且有益。

该应用程序应该 有用、可靠、易于访问且令人愉悦 ,以提供良好的用户体验。

可用性⚓︎

可用意味着应用程序具有与其预期目的相匹配的功能,例如自动化评分过程或生成用于复习的卡片。 自动评分过程的应用程序应该能够根据预定义的标准准确有效地为学生的作业分配分数。 同样,生成卡片的应用程序应该能够根据其数据创建相关且多样化的问题。

可靠性⚓︎

可靠意味着应用程序可以一致且无错误地执行其任务。 然而,人工智能就像人类一样并不完美,并且可能容易出错。 应用程序可能会遇到错误或意外情况,需要人工干预或纠正。 你如何处理错误? 在本章的最后一部分,我们将介绍如何设计人工智能系统和应用程序以实现协作和反馈。

无障碍性⚓︎

无障碍意味着将用户体验扩展到具有各种能力的用户,包括残疾人,确保没有人被排除在外。 通过遵循可访问性指南和原则,人工智能解决方案变得更具包容性、可用性,并且对所有用户都有利。

满意性⚓︎

令人满意意味着该应用程序使用起来令人愉快。 有吸引力的用户体验可以对用户产生积极影响,鼓励他们返回应用程序并增加业务收入。

图片说明人工智能中的用户体验考虑因素

并非所有挑战都可以通过人工智能解决。 人工智能可以增强您的用户体验,无论是自动化手动任务还是个性化用户体验。

设计人工智能应用程序以实现信任和透明⚓︎

设计人工智能应用程序时,建立信任至关重要。 信任可确保用户确信应用程序能够完成工作、一致地交付结果并且结果是用户所需要的。 该领域的一个风险是不信任和过度信任。 当用户对人工智能系统怀疑时,就会出现不信任,这会导致用户拒绝您的应用程序。 当用户高估人工智能系统的能力,导致用户过于信任人工智能系统时,就会出现过度信任。 例如,自动评分系统在过度信任的情况下可能会导致老师不通过某些试卷进行校对以确保评分系统运作良好。 这可能会导致学生的成绩不公平或不准确,或者错过反馈和改进的机会。

确保将信任置于设计中心的两种方法是可解释性和可控性。

可解释性⚓︎

当人工智能帮助做出决策(例如向后代传授知识)时,教师和家长了解人工智能决策是如何做出的至关重要。 这就是可解释性——理解人工智能应用程序如何做出决策。 可解释性设计包括添加人工智能应用程序可以做什么的示例的详细信息。 例如,系统可以使用:“使用 AI 总结笔记以便更轻松地复习”,而不是“开始使用 AI 教师”。

一个应用程序登陆页面,清楚地说明人工智能应用程序中的可解释性

另一个例子是人工智能如何使用用户和个人数据。 例如,具有学生角色的用户可能具有基于其角色的限制。 人工智能可能无法揭示问题的答案,但可以帮助引导用户思考如何解决问题。

AI根据角色回答问题

可解释性的最后一个关键部分是解释的简化。 学生和教师可能不是人工智能专家,因此对应用程序可以做什么或不能做什么的解释应该简化且易于理解。

AI能力的简单说明

控制⚓︎

生成式人工智能在人工智能和用户之间创建协作,例如用户可以修改不同结果的提示。 此外,一旦生成输出,用户应该能够修改结果,从而给他们一种控制感。 例如,使用 Bing 时,您可以根据格式、语气和长度定制提示。 此外,您可以对输出添加更改并修改输出,如下所示:

带有修改提示和输出选项的 Bing 搜索结果

Bing 中允许用户控制应用程序的另一个功能是能够选择加入和退出 AI 使用的数据。 对于学校应用,学生可能希望使用他们的笔记以及教师的资源作为复习材料。

带有修改提示和输出选项的 Bing 搜索结果

在设计人工智能应用程序时,意向性是确保用户不会过度信任对其功能设定不切实际的期望的关键。 做到这一点的一种方法是在提示和结果之间制造摩擦。 提醒用户这是人工智能而不是人类

设计用于协作和反馈的 AI 应用程序⚓︎

正如前面提到的,生成式人工智能在用户和人工智能之间建立了协作。 大多数交互都是由用户输入提示,然后人工智能生成输出。 如果输出不正确怎么办? 如果发生错误,应用程序如何处理? 人工智能会责怪用户还是需要时间来解释错误?

应内置人工智能应用程序来接收和提供反馈。 这不仅有助于人工智能系统的改进,还可以与用户建立信任。 设计中应包含反馈回路,例如对输出的简单赞成或反对。

处理此问题的另一种方法是清楚地传达系统的功能和限制。 当用户请求超出 AI 能力的内容时出错时,还应该有一种方法来处理此问题,如下所示。

提供反馈和处理错误

系统错误在用户可能需要人工智能范围之外的信息帮助或者应用程序可能限制用户可以生成摘要的问题/主题的应用程序中很常见。 例如,使用有限科目(例如历史和数学)的数据训练的人工智能应用程序可能无法处理有关地理的问题。 为了缓解这种情况,人工智能系统可以给出这样的响应:“抱歉,我们的产品已经接受了以下主题的数据训练......,我无法回答您提出的问题。”

人工智能应用并不完美,因此,它们难免会犯错误。 在设计应用程序时,您应该确保以简单且易于解释的方式为用户反馈和错误处理留出空间。

作业⚓︎

对于您迄今为止构建的任何 AI 应用程序,请考虑在您的应用程序中实施以下步骤:

  • 满意度: 考虑如何使您的应用程序更加令人愉快。 您是否到处添加解释,是否鼓励用户探索? 你是如何表述错误信息的?
  • 可用性: 构建网络应用程序。 确保您的应用程序可以通过鼠标和键盘进行导航。
  • 信任和透明度: 不要完全信任人工智能及其输出,考虑如何在流程中添加人员来验证输出。 此外,考虑并实施其他方法来实现信任和透明度。
  • 可控: 赋予用户对其提供给应用程序的数据的控制权。 实现用户可以选择加入和退出 AI 应用程序中的数据收集的方式。