所有提交的电磁系统将被重定向到在线手稿提交系统。作者请直接提交文章在线手稿提交系统各自的杂志。

数据驱动语言和限制参与机器学习

罗威娜詹金斯*

亚历山大大学计算机科学系埃及亚历山大港

*通讯作者:
罗威娜詹金斯
计算机科学部门,
亚历山大大学
亚历山德里亚市
埃及
电子邮件:
j.rowena@gmail.com

收到:02 - 11月- 2022手稿。集选区- 22 - 82766;编辑分配:07 - 11月- 2022,PreQC不。集选区- 22 - 82766 (PQ);综述:11月14 - - 2022,质量控制。集选区- 22 - 82766;修改后:2022年- 11月28日,手稿没有。集选区- 22 - 82766 (R);发表:05 - 12月- 2023,2321 - 6212.13.5.002 DOI: 10.4172 /

访问更多的相关文章全球研究计算机科学杂志》上

描述

机器学习(ML)是研究的一个分支关心理解和发展方法的学习,使用数据的方法来提高性能的一系列任务。它被认为是人工智能的一个组成部分。

机器学习算法被用于广泛的应用程序,包括医药、邮件过滤、语音识别、农业、计算机视觉,开发传统算法执行所需任务将是困难的或不可能的。

限制

偏见:机器学习方法,特别容易受到各种数据偏差。一个机器学习系统,只有在训练现有客户可能无法预测新客户群体的需求,并不代表在训练数据。当人工训练数据时,机器学习可能会检测到宪法和无意识的偏见,在社会中已经存在。数据驱动语言模型已经被证明有类似人类的偏见。机器学习的有效使用在其他领域可能需要更长的时间。关心公平的机器学习,机器学习中减少偏见和推动它的使用对人类好,是被人工智能科学家表示越来越多,包括李菲菲,他提醒工程师,制造“人工智能不以任何方式。启发人们,由人,,最重要的是,有一个对人的影响。这是一个强大的工具,我们现在才开始理解,,伴随着巨大的责任。”

Explainability

可辩解的AI(新品),也被称为可判断的AI或可说明的机器学习(XML),是一种人工智能(AI)在人类可以了解人工智能的决策或预测。它与“黑盒”概念在机器学习,甚至设计师的无法解释为什么一个AI做了一个特定的决定。新品承诺帮助用户更有效地执行通过精炼他们的心智模式和拆除他们的误解。新品可以解释社会权利的一个例子。

其他限制和弱点

学习者也可以让自己失望,“学习错误的教训。”In the real world, unlike humans, current image classifiers frequently do not make judgments based on the spatial relationship between picture components, and they learn relationships between pixels that humans are unaware of but that still correlate with images of certain types of real objects. Changing these patterns on a legitimate image can produce "adversarial" images that the system incorrectly classifies.

敌对的漏洞可以出现在非线性系统或者由于non-pattern扰动。一些系统非常脆弱,甚至改变一个敌对的像素导致误分类。通过对抗性的机器学习,机器学习模型经常容易操作和/或逃避。

研究人员演示了如何后门可以隐藏在机器学习模型进行分类(例如,类别“垃圾邮件”和“不是垃圾邮件”的帖子),经常由第三方开发和/或训练。方可以改变任何输入的分类,包括数据/软件透明度的情况下,可能包括白盒访问提供。因此,它需要非常大量的数据以执行比其他技术。