早告诉你了吧
A place to tell the truth, the whole truth and nothing but the truth.
线性代数第一章:导学 线性代数第一章:导学
为什么学习线性代数 线性代数是高等教育中理工科学生必学的数学之一 线性代数是近现代科学发展过程中最重要的基础数学之一 初等教育中更多的是在研究一个一个的具体的数,和函数。线性代数则在研究“一组数”,即向量。 真实的世界是多维度的,单变量不足以描述真实世界的。线性代数将对数值的研究由单一纬度拓展到多维度,发展了一套数学概念和工具,使数学更加容易的解决现实中真实世界的问题。 近乎所有的理工科教材
2020-09-01
凸优化基础,本科生能看得懂的极限水平 凸优化基础,本科生能看得懂的极限水平
此篇学习笔记大多数为网络搬运+自己的理解,笔者学历不高,水平有限,就是给的多。此文所需的数学知识已经达到了笔者浅薄的认知极限。 1. 判定凸集,以及凸函数 凸集定义[1][2] Convex set 俗话定义:例如立方体、球体和圆形这样的没有凹痕和中空的集合就是凸集,月牙形不是凸集。 具体定义:在欧式空间中,凸集是对于集合内的每一对点,连接该对点的直线段上的每个点也都在该集合内。 抽象定义:凸
2020-07-19
Scala 学习 - 函数及函数的定义 Scala 学习 - 函数及函数的定义
函数定义 值类型和返回值类型都定义在值的后面或方法名的后面,用冒号分隔开。 方法体最后一行是默认返回值,不需写 return def add(a: Int, b: Int): Int = { a + b // return a + b} 方法体如果是一个表达式,可以省略花括号: def add(a: Int, b: Int): Int = a + b 变(常)量和函数的
2020-07-04
Scala 学习 - 项目的创建 Scala 学习 - 项目的创建
前言 能来看这个系列教程的人,我假设您是要使用 scala 进军大数据,消息中间件,机器学习开发领域的人,对 Java 及其生态框架,比如 Maven 等已经比较熟悉,平时开发使用 Intellij IDEA,没有人会使用 javac 或者 scalac 进行大项目的管理,没有人会使用 vscode 进行 Java 项目的开发吧,所以废话不多说,直接新建项目。 Scala 插件 使用 Inte
2020-07-04
Python 入门与进阶考试习题 Python 入门与进阶考试习题
不定项选择题(15分) 下面哪些领域是适合 Python 的? A. 爬虫引擎 B. 大数据 C. 自动化运维测试 D. Web 开发 E. 机器学习 Python 2 什么时候结束生命周期(End of Life)? A. 已经结束 B. 半年内结束 C. 一年内结束 D. 未来还会长期存在 下面哪个不是 Python 内的基本数据类型? A. int B. float C. do
2020-03-07
Spark 大数据入门清单:AHP法分析顾客终身价值得分 Spark 大数据入门清单:AHP法分析顾客终身价值得分
什么是 AHP 法 层次分析法(The analytic hierarchy process,简称AHP),也称层级分析法。 层次分析法的基本思路与人对一个复杂的决策问题的思维、判断过程大体上是一样的。比如: 买钢笔,一般要依据质量、颜色、实用性、价格、外形等方面的因素选择某一支钢笔。 假期旅游,是去风光秀丽的苏州,还是去迷人的北戴河,或者是去山水甲天下的桂林,那一般会依据景色、费用、食宿条件
Spark 大数据入门清单:RFM方法分析用户评级 Spark 大数据入门清单:RFM方法分析用户评级
什么是 RFM 分析方法 理论 RFM是3个指标的缩写,最近一次消费时间间隔(Recency),消费频率(Frequency),消费金额(Monetary)。通过这3个指标对用户分类。 用RFM分析方法把用户分为8类,这样就可以对不同价值用户使用不同的营销决策,把公司有限的资源发挥最大的效果,这就是我们常常听到的精细化运营。比如第1类是重要价值用户,这类用户最近一次消费较近,消费频率也高,消费
Spark 大数据入门清单:Local 模式启动 Spark 应用 Spark 大数据入门清单:Local 模式启动 Spark 应用
local 模式启动 spark 应用的过程,其实非常简单,只需简单的几步就能完成。 前言 在上一篇文章中,我们说到: Local 模式即单机模式,也就是完全体会不到分布式的好处的一种模式。 如果在命令语句中不加任何配置,则默认是 Local 模式,在本地运行。 这也是最简单的一种模式,所有的 Spark 进程都运行在一台机器或一个虚拟机上面。 那么本章,我们一起来看看,如何搭建 Local
Spark 大数据入门清单:运行环境和模式简介 Spark 大数据入门清单:运行环境和模式简介
Spark 的运行环境 spark 2.x 需要 JDK 8 spark 3.0 需要 JDK 11 Spark 的运行模式 spark 有5中运行模式,Local,Standalone,Yarn,Mesos 和 Kubernetes。 更加具体的来讲,下图[1]中的 Cluster Manager 可以是任意的集群资源管理框架,Spark 自身可以兼容多种 Cluster Manage
Spark 大数据入门清单:Spark 和 Hadoop 的关系 Spark 大数据入门清单:Spark 和 Hadoop 的关系
没有关系。 本文目的 本文的目的是带领您走进 Spark 的世界,认识到一些基本概念,包括: Hadoop 的 MapReduce、YARN和HDFS等基本概念 Hadoop 的不足 Spark 是什么 Spark 和 Hadoop 共存还是互斥? Spark 的血缘关系 认识到这个世界的神奇,了解 Spark 都能做什么事情。 前言 Spark 和 Hadoop 都是大数据处理工具,大数
Spark2.x:dataframe的join方法详解 Spark2.x:dataframe的join方法详解
Spark join 在Spark生态里,join分为Spark SQL的join和基于dataframe的join,这次我们来谈谈最常用的基于dataframe的join方法详解示例。 Spark支持所有类型的Join[1],包括: inner join left outer join right outer join full outer join left semi join left
spark关联规则分析:从经典的购物篮app看数据内在的联系 spark关联规则分析:从经典的购物篮app看数据内在的联系
前言 在 中英双语论文解析:Mining Frequent Patterns without Candidate Generation(挖掘没有候选者生成的频繁模式) 和 Spark大数据第一步:关联规则挖掘须知,什么是支持度、置信度 两篇文章的加持下,我想,现在对于深入理解经典的购物篮关联规则分析的原理已经不再是一件困难的事情。 代码分析 数据准备 设 mb 为 market basket
3 / 8