2017年度15个优秀的数据科学领域Python库

网友投稿 764 2023-05-05

2017年度15个优秀的数据科学领域Python库

2017年度15个优秀的数据科学领域Python库

由于近年来Python已经在数据科学领域引起了很大的关注,我想根据最近的经验,为数据科学家和工程师列出一些最有用的库。

由于所有的库都是开源的,我们增加了来自Github的提交,贡献者,计数和其他指标,这可以作为python数据科学库流行度的代理指标。

核心库

1、Numpy

Numpy(stands for Numerical Python)当开始尝试用Python解决科学任务时,numpy是基石,它能操作数组和矩阵提供了丰富的特性。该库提供了NumPy数组类型的数学运算向量化,可以改善性能,从而加快执行速度。

2.SciPy

SciPy是一个工程和科学软件库。SciPy包含线性代数,优化,集成和统计的模块。 SciPy库的主要功能是建立在NumPy的基础之上,因此它的数组大量使用了NumPy。

3.Pandas

Pandas是一个可以方便处理表数据(经常接触,易于理解的excell表)。数据清洗的***工具,被设计用来快速简单的数据操作,聚合和可视化。 在这个库中主要由两种数据结构:

pandas.Series - 1维

pandas.DataFrames - 2维

如下只是我们基于Pandas能做的事情的小清单:

在DataFrame中轻易地删除或者添加列把数据结构转换为DataFrame对象处理缺失数据,用NaNs代表GroupBy方法可视化

Google Trends history

GitHub pull requests history

4.Matplotlib

MatPlotlib是python可视化库,它让Python正成为像MatLab或者Mathematica这样的科学工具的有力竞争者。然而,这个库相当底层,意味着你需要编写更多的代码才能达到高级的可视化效果,通常会比使用更多的高级工具付出更多的努力,但总体来说努力是值得的。

只需要一点功夫,你就能做出下面任何的可视化方法:

线图散点图条形图和直方图饼状图茎图等高线图矢量场图频谱图

还有使用Matplotlib创建标签,图例和许多其他格式化实体的功能。 基本上,一切都是可定制的。

该库由不同的平台支持,并使用不同的GUI套件来描述所得到的可视化。 不同的IDE(如IPython)支持Matplotlib的功能。

还有一些其他的库可以使可视化变得更加容易。

5.Seaborn

Seaborn主要聚焦于统计模型的可视化;这些可视化包括总结数据但仍描绘整体分布的热图。Seaborn是基于Matplotlib建立的,并高度依赖于那个包。

6.Bokeh

Boken是另一个强大的可视化库,目标是建立交互可视化的图标。与之前的库相比,这个库独立于Matplotlib。 正如我们已经提到的那样,Bokeh的主要聚焦在交互性,它通过现代浏览器以数据驱动文档(d3.js)的风格呈现。

7.Plotly

Google Trends history

GitHub pull requests history

机器学习

8.SciKit-Learn

Scikits专为特定功能(如图像处理和机器学习辅助)而设计。 在这些领域,其中最突出的一个是scikit-learn。该软件包建立在SciPy的上层,并大量使用其数学操作。

scikit-learn公开了一个简洁和一致的界面,结合常见的机器学习算法,使得把机器学习带入生产系统变得简单。 此库有着高质量的代码和良好的文档,并使用简单性能优越,事实上是使用Python进行机器学习的行业标准。

深度学习 - Keras/TensorFlow/Theano

在深度学习方面,Python中最突出和最方便的库之一是Keras,它可以在TensorFlow或者Theano之上运行。让我们来看一下他们的一些细节。

9.Theano

首先,让我们谈谈Theano。

Theano是一个Python包,它定义了与NumPy类似的多维数组,以及数学运算和表达式。 这个库是自编译的,使其能够在所有架构上高效运行。 最初由蒙特利尔大学机器学习组开发,主要用于机器学习的需求。

重要的是要注意的是,Theano与NumPy在低层次的操作上紧密集成。 该库还优化了GPU和CPU的使用,使数据密集型计算的性能更快。

效率和稳定性调整允许更精确的结果,甚至非常小的值,例如,log(1 + x)的计算将给出x的最小值的认知结果。

10. TensorFlow

TensorFlow是由Google的开发人员开发,它是一个图形化的数据流计算开源库,专注于机器学习。 它旨在满足Google环境对训练神经网络的高度要求,并且是基于神经网络的机器学习系统DistBelief的继任者。然而,TensorFlow并不是严格用于谷歌范围的科学用途 - 在一般的实际应用中同样有效。

TensorFlow的关键特征是其多层节点系统,可以在大型数据集上快速训练人工神经网络。 这为Google的语音识别和图像对象识别提供了支持。

11.Keras

***,我们来看看Keras。它是一个用Python编写的用于在高级界面构建神经网络的开源库。它简单易懂又有着高度可扩展性。它使用Theano或TensorFlow作为后端,但Microsoft现在将CNTK(Microsoft的认知工具包)集成为新的后端。

设计中的极简方法旨在通过建立极小集进行快速和简单的实验。

Keras 真的非常容易入门而且可以通过快速标准逐渐深入。它是用纯Python编写的,高度模块化而又可扩展。尽管它的轻松,简单和高度定向,Keras仍然对大型模型有着足够深和有力的机器学习能力。

Keras的核心是基于层,其他一切都围绕着它们构建。数据预处理为张量tensor,***层layer负责输入张量,***一层负责输出,并建立模型。

Google Trends history

GitHub pull requests history

自然语言处理。

12.NLTK

这套工具包的名称代表自然语言工具包,顾名思义,它用于符号和统计自然语言处理的常见任务。 NLTK旨在促进NLP及相关领域(语言学,认知科学人工智能等)的教学和研究,目前正在被重点关注。

NLTK的功能允许许多操作,例如文本标记,分类和标记,名称实体标识,建立语言树,显示语言间和句子内依赖性,词根,语义推理。 所有的构建块都可以为不同的任务构建复杂的研究系统,例如情绪分析,自动总结。

13.Gensim

它是一个用于Python的开源库,可以用来进行向量空间建模和主题建模的工具。 这个工具包不仅可以进行内存处理,还设计来高效处理大型文本。效率通过使用NumPy数据结构和SciPy操作来实现。既高效又易于使用。

Gensim旨在与原始和非结构化数字文本一起使用。 Gensim实现了诸如分层Dirichlet进程(HDP),潜在语义分析(LSA)和潜在Dirichlet分配(LDA)之类的算法,以及tf-idf,随机投影,word2vec和document2vec便于检查文本中的重复模式的文本的一套文件(通常称为语料库)。 所有的算法是无监督的 - 不需要任何参数,唯一的输入是语料库。

Google Trends history

GitHub pull requests history

数据挖掘、统计

14.Scrapy

Scrapy是用于从网络检索结构化数据(如联系人信息或URL)的爬行程序(也称为蜘蛛机器人)的库。

它是开源的,用Python编写。 它的设计严格按照爬行的方式,正如它的名字,但是它已经在完整的框架中发展,能够从API采集数据并作为通用爬虫。

该库在界面设计中着名的“不要重复自己” - 它提示用户编写将要重复使用的通用代码,从而构建和缩放大型爬虫。

Scrapy的架构围绕着Spider类构建,包含了爬行器跟踪的一系列指令。

15.Statsmodels

正如您可能从名称中猜出的那样,statsmodels是一个用于Python的库,使用户能够通过使用各种统计模型估计方法进行数据挖掘并执行统计断言和分析。

许多有用的特征是描述性的,并通过使用线性回归模型,广义线性模型,离散选择模型,鲁棒线性模型,时间序列分析模型,各种估计量进行统计。

该库还提供了可扩展的绘图功能,专门为统计分析和在进行大数据统计时表现良好而设计。

结论

这些库被许多数据科学家和工程师认为是该列表的首位,值得一看,并至少熟悉它们。

以下是每个库Github活跃程度的详细统计资料:

当然,这不是完全详尽的列表,还有许多其他库,工具包和框架也是非常有用的,尤其是针对一些特别的任务。 一个很好的例子是不同的SciKit软件包,专注于特定领域,如用于处理图像的SciKit-Image。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:2018,为何你应该使用PostgreSQL,这几个也许就是理由了
下一篇:此类情况下解决Oracle数据库重启的四种方案
相关文章