全国服务热线:400-6263-721

位置:南宁达内IT教育培训学校 > 学校动态 > pandas数据分析 去除重复值

pandas数据分析 去除重复值

来源:南宁达内IT教育培训学校时间:2023/2/8 16:01:36

  数据分析-pandas数据分析实战之去除重复值,通过具体的内容向大家展现,希望对大家数据分析的学习有所帮助。

  加载数据

  首先,我们需要加载到所需要的数据,这里我们所需要的数据是同过sample函数采样过来的。

  import pandas as pd

  #这里说明一下,clean_beer.csv数据有两千多行数据

  #所以从其中采样一部分,来进行演示,当然可以简单实用data.head()也可以做练习

  data = pd.read_csv('clean_beer.csv')

  data_sam = data.sample(frac=0.1,weights=data['ounces'].values)

  data_sam1 = data_sam

  data_sam

  我们采用data[‘ounces’]列为权重对数据进行采样,并将结果赋值给data_sam1,其中data_sam和data_sam1是后续我们需要用到的两个数据(因为需要将两个数据合并,并去除重复)

  此时,data_sam和data_sam1的数据是一样的。

  sample抽样函数

  简要介绍一下sample函数

  df.sample()就是抽样函数,参数如下:

  df.sample(n=None,frac=None,replace=Flase,weights=None,random_state=None,axis=None)

  参数说明:

  **n:**就是样本量,如果不写,就是抽一条数据

  **frac:**抽样比,就是样本量占全样本的比例,如frac=0.3 ,注意n和frac不能共存

  replace:是否放回,默认是不放回,如果有放回(replace=True)可以选择比df长度更多的元素回来

  weights:样本权重,自动归一化,可以以某一列为权重

  random_state:随机状态。就是为了增加程序每次运行得到的结果都一样

  axis:抽样维度,0是行,1是列,默认为0

  指定需要更新的值

  接下来,我们对data_sam1的值进行更新,主要是将data_sam1的ounces属性列值加上后缀’.0 oz’,具体代码如下:

  data_sam1['ounces'] = data_sam1['ounces'].astype('str') + '.0 oz'

  data_sam1

  对data_sam1的值进行显示,其中我们可以看到,ounces的值已经全部加上了我们所指定的后缀:

  现在,我们已经得到的新的值,接下来的目标就是如何将我们已经得到的新值,更新到data_sam

  中

  append直接添加

  从标题可以看到,我们使用的是append方法进行直接添加。

  data_sam = data_sam.append(data_sam1,ignore_index=True)

  data_sam

  我们将data_sam1使用append方法添加到data_sam较后一行的后面。下面展示其结果,并详细介绍append的用法。

  可以看到,行数已经有原来的241改为现在的482rows,显然我们此时已经成功使用append添加数据成功。不过我们想要的不止是简简单单的添加数据在较后一行,而是想要把我们增加后缀的那一列更新到原来的数据中,所以较后一步就是去重。

  append函数用法

  append()函数的语法为:

  DataFrame.append(other,ignore_index=False,verify_integrity=False,sort=None)

  参数说明:

  other: DataFrame,Series或Dict式对象,其行将添加到调用方DataFrame中。

  ignore_index: 如果为True,则将忽略源DataFrame对象中的索引。

  verify_integrity:如果为True,则在创建具有重复项的索引时引发ValueError 。

  sort: 如果源DataFrame列未对齐,则对列进行排序。 不建议使用此功能。 因此,我们必须传递sort=True来排序和静音警告消息。 如果传递了sort=False ,则不会对列进行排序,并且会忽略警告。

  根据某一列key值进行去重(key)

  接下来,就是较后一个步骤,也就是根据ounces列对数据进行去重。

  通过duplicated()函数可以看到数据还是有很多重复的。

  data_sam.duplicated(['id'],keep='first')

  DataFrame.drop_duplicated(self,subset = None,keep ='first')

  subset : 列标签或标签序列,可选仅考虑某些列来标识重复项,默认情况下使用所有列

  keep : {'first','last',False},默认为'first'

  first:将重复项标记True为次出现的除外。

  last:将重复项标记True为较后一次除外。

  False:将所有重复项标记为True。

  既然知道数据中是有重复项的,通过对数据的观察可以看到,数据的id是的,所以我们以id这一列为契机,来进行我们的去重操作。具体代码如下:

  data_sam = data_sam.drop_duplicates(subset = 'id')

  data_sam

领取试听课
每天限量名额,先到先得

尊重原创文章,转载请注明出处与链接:http://www.peixun360.com/1658/news/592808/违者必究! 以上就是南宁达内IT教育培训学校 小编为您整理 pandas数据分析 去除重复值的全部内容。

温馨提示:提交留言后老师会第一时间与您联系!热线电话:400-6263-721