【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

简介: 【1月更文挑战第26天】【人工智能】<吴恩达-机器学习>批量梯度下降&矩阵和向量运算概述

 目录

一、Gradient descent for liner regression - 线性回归:

1.线性回归的梯度下降法:

2."Batch" Gradient Descent - 批量梯度下降法:

二、Matrices and Vectors - 矩阵和向量:

1.Matrix:

2.Vector:

三、矩阵&向量运算:

1.Addition and scalar multiplication - 加法和标量乘法:

2.Matrix - Vector multiplication - 矩阵&向量乘法:

3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

4.Matrix multiplication properties - 矩阵特性:

5.特殊矩阵:

6.Inverse and transpose - 矩阵逆运算&转置:

矩阵的逆:

矩阵的转置:


一、Gradient descent for liner regression - 线性回归:

image.gif编辑

我们通过使用Gradient descent algorithm(梯度下降算法)来使得J()(损失函数)最小化或局部最小化。

1.线性回归的梯度下降法:

image.gif编辑

不断重复进行迭代计算,直到最终结果收敛!

注意:Update and simultaneously

数学推导:

image.gif编辑

Convex Function:

image.gif编辑

类似于这样的回归则会有全局且是唯一的最优解。

image.gif编辑

2."Batch" Gradient Descent - 批量梯度下降法:

       "Batch": Each step of gredient descent uses all the training examples.

       梯度下降算法需要对损失函数求梯度,也就是求导。

       批量梯度下降法是最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行梯度的更新。

       对损失函数求偏导(对 求偏导):

image.gif编辑

       更新值:

image.gif编辑

       不断重复这一步直到算法收敛,也就是对参数不断更新,直到梯度为0。但是,我们的每次迭代更新,都要对所有的m个样本数据进行求和。

       如何检测是否已经收敛了呢?

    • 一种是检验两次迭代,如果两次迭代中,是否改变了很多,如果在两次迭代中没怎么改变,我们或许就可以说算法有可能收敛了。
    • 另一种,更常用的方法是,检验的值,如果你试图最小化的量不再发生很大的改变时,你也许就可以认为它收敛了。

    优点:

      • 一次迭代是对所有样本进行计算,此时利用矩阵进行运算,实现了并行。
      • 由全数据集确定的方向能够更好地代表样本总体,从而更准确地朝向极值所在的方向。当目标函数为凸函数时,批量梯度下降一定能够得到全局最优解。

      缺点:

        • 有时我们会遇到样本数目 m 很大的训练集合,如果有几十上百万,甚至上亿的训练样本。这意味着我们每执行一次批梯度下降算法,都要对m个样本进行求和。我们的程序也就需要检测这上百万的样本,甚至我们完成值下降的第一步都十分困难。这样会导致,训练过程很慢,花费很长的时间。

        二、Matrices and Vectors - 矩阵和向量:

        1.Matrix:

        Matrix: Rectangular array of numbers:

        image.gif编辑

        Dimension of matrix: number of rows x number of cloumns

        2.Vector:

        image.gif编辑


        三、矩阵&向量运算:

        1.Addition and scalar multiplication - 加法和标量乘法:

        Matrix Additon: 对应位置上的元素进行直接相加减(只有同型矩阵才能进行该运算)。

        Scalar Multiplication: 常数乘除上矩阵响应位置上的元素,结果所得到的矩阵型式不变。

        2.Matrix - Vector multiplication - 矩阵&向量乘法:

        image.gif编辑

        3.Matrix-Matrix multiplication - 矩阵&矩阵乘法:

        image.gif编辑

        image.gif编辑

        4.Matrix multiplication properties - 矩阵特性:

        image.gif编辑

        矩阵&矩阵间的乘法:不满足乘法交换律,满足乘法结合率!

        5.特殊矩阵:

        image.gif编辑

        image.gif编辑

        单位矩阵和任何可乘的矩阵相乘,仍然等于该矩阵!

        6.Inverse and transpose - 矩阵逆运算&转置:

        矩阵的逆:

        Not all numbers have an inverse.

        image.gif编辑

        矩阵和该矩阵的逆相乘等于单位矩阵!

        image.gif编辑

        矩阵的转置:

        image.gif编辑

        image.gif编辑


        相关文章
        |
        4月前
        |
        机器学习/深度学习 人工智能 运维
        阿里云PAI人工智能平台介绍、优势及收费标准,手动整理
        阿里云人工智能平台PAI是面向开发者和企业的机器学习与深度学习工程平台,提供数据标注、模型构建、训练、部署及推理优化等全链路服务。内置140+优化算法,支持PyTorch、TensorFlow等多种框架,具备高性能训练与推理能力,适用于自动驾驶、金融风控、智能推荐、智慧医疗等多个行业场景。PAI提供零代码开发、可视化建模、大模型一键部署等功能,助力企业快速构建AI应用。支持多种购买方式,如按量付费、预付费等,满足不同业务需求。
        |
        12月前
        |
        机器学习/深度学习 人工智能 物联网
        通义灵码在人工智能与机器学习领域的应用
        通义灵码不仅在物联网领域表现出色,还在人工智能、机器学习、金融、医疗和教育等领域展现出广泛应用前景。本文探讨了其在这些领域的具体应用,如模型训练、风险评估、医疗影像诊断等,并总结了其提高开发效率、降低门槛、促进合作和推动创新的优势。
        通义灵码在人工智能与机器学习领域的应用
        |
        11月前
        |
        机器学习/深度学习 传感器 人工智能
        人工智能与机器学习:改变未来的力量####
        【10月更文挑战第21天】 在本文中,我们将深入探讨人工智能(AI)和机器学习(ML)的基本概念、发展历程及其在未来可能带来的革命性变化。通过分析当前最前沿的技术和应用案例,揭示AI和ML如何正在重塑各行各业,并展望它们在未来十年的潜在影响。 ####
        263 27
        |
        11月前
        |
        机器学习/深度学习 人工智能 算法
        人工智能浪潮下的编程实践:构建你的第一个机器学习模型
        在人工智能的巨浪中,每个人都有机会成为弄潮儿。本文将带你一探究竟,从零基础开始,用最易懂的语言和步骤,教你如何构建属于自己的第一个机器学习模型。不需要复杂的数学公式,也不必担心编程难题,只需跟随我们的步伐,一起探索这个充满魔力的AI世界。
        211 12
        |
        12月前
        |
        机器学习/深度学习 人工智能 算法
        【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
        手写数字识别系统,使用Python作为主要开发语言,基于深度学习TensorFlow框架,搭建卷积神经网络算法。并通过对数据集进行训练,最后得到一个识别精度较高的模型。并基于Flask框架,开发网页端操作平台,实现用户上传一张图片识别其名称。
        425 0
        【手写数字识别】Python+深度学习+机器学习+人工智能+TensorFlow+算法模型
        |
        11月前
        |
        机器学习/深度学习 人工智能 算法
        探索人工智能与机器学习的融合之路
        在本文中,我们将探讨人工智能(AI)与机器学习(ML)之间的紧密联系以及它们如何共同推动技术革新。我们将深入分析这两种技术的基本概念、发展历程和当前的应用趋势,同时讨论它们面临的挑战和未来的发展方向。通过具体案例研究,我们旨在揭示AI与ML结合的强大潜力,以及这种结合如何为各行各业带来革命性的变化。
        236 0
        |
        12月前
        |
        机器学习/深度学习 数据采集 人工智能
        人工智能与机器学习:解锁数据洞察力的钥匙
        人工智能与机器学习:解锁数据洞察力的钥匙
        |
        23天前
        |
        机器学习/深度学习 数据采集 人工智能
        【机器学习算法篇】K-近邻算法
        K近邻(KNN)是一种基于“物以类聚”思想的监督学习算法,通过计算样本间距离,选取最近K个邻居投票决定类别。支持多种距离度量,如欧式、曼哈顿、余弦相似度等,适用于分类与回归任务。结合Scikit-learn可高效实现,需合理选择K值并进行数据预处理,常用于鸢尾花分类等经典案例。(238字)
        |
        12月前
        |
        机器学习/深度学习 算法 数据挖掘
        K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构
        K-means聚类算法是机器学习中常用的一种聚类方法,通过将数据集划分为K个簇来简化数据结构。本文介绍了K-means算法的基本原理,包括初始化、数据点分配与簇中心更新等步骤,以及如何在Python中实现该算法,最后讨论了其优缺点及应用场景。
        1125 6
        |
        6月前
        |
        机器学习/深度学习 数据采集 人工智能
        20分钟掌握机器学习算法指南
        在短短20分钟内,从零开始理解主流机器学习算法的工作原理,掌握算法选择策略,并建立对神经网络的直观认识。本文用通俗易懂的语言和生动的比喻,帮助你告别算法选择的困惑,轻松踏入AI的大门。