Seaborn 的示例数据集(load_dataset)
相信大家在学习GroupBy,或者数据透视表时,都有可能会碰到类似下面的一行代码:import seaborn as snsplanets = sns.load_dataset('planets')然后就可以发现planets已经存储了数据了,那么这些数据到底是从哪里来的呢?我们查看一下load_dataset的docstring:In [54]: sns.load_data...
·
相信大家在学习GroupBy,或者数据透视表时,都有可能会碰到类似下面的一行代码:
import seaborn as sns
planets = sns.load_dataset('planets')
然后就可以发现planets已经存储了数据了,那么这些数据到底是从哪里来的呢?
我们查看一下load_dataset的docstring:
In [54]: sns.load_dataset??
Signature: sns.load_dataset(name, cache=True, data_home=None, **kws)
Source:
def load_dataset(name, cache=True, data_home=None, **kws):
"""Load a dataset from the online repository (requires internet).
Parameters
----------
name : str
Name of the dataset (`name`.csv on
https://github.com/mwaskom/seaborn-data). You can obtain list of
available datasets using :func:`get_dataset_names`
cache : boolean, optional
If True, then cache data locally and use the cache on subsequent calls
data_home : string, optional
The directory in which to cache data. By default, uses ~/seaborn-data/
kws : dict, optional
Passed to pandas.read_csv
"""
可以看到docstring的第一行就说明了这个函数是从在线存储库加载数据集的(需要互联网)。
网址:https://github.com/mwaskom/seaborn-data
下面就是可以在线或取得数据集啦(可以用来做练习哦)

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)