JunSotohigashi's picture
Update README.md
b5824ea verified
---
dataset_info:
features:
- name: page
dtype: string
- name: title
dtype: string
- name: pre_str
dtype: string
- name: post_str
dtype: string
- name: pre_bart_likelihood
dtype: float64
- name: post_bart_likelihood
dtype: float64
- name: category
dtype: string
- name: text_head
dtype: string
- name: text_tail
dtype: string
splits:
- name: train
num_bytes: 79765386
num_examples: 291954
- name: test
num_bytes: 584213
num_examples: 2100
download_size: 46334306
dataset_size: 80349599
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
- split: test
path: data/test-*
license: cc-by-sa-3.0
language:
- ja
---
# 日本語ウィキペディア入力誤りデータセット (漢字誤変換抽出版)
## 概要
このデータセットは,京都大学 言語メディア研究室によって公開されているデータセットをHuggingFaceで使用できるよう変換したものです.
[日本語Wikipedia入力誤りデータセット (v2) - 京都大学 言語メディア研究室](https://nlp.ist.i.kyoto-u.ac.jp/?%E6%97%A5%E6%9C%AC%E8%AA%9EWikipedia%E5%85%A5%E5%8A%9B%E8%AA%A4%E3%82%8A%E3%83%87%E3%83%BC%E3%82%BF%E3%82%BB%E3%83%83%E3%83%88)
このデータセットでは,[JunSotohigashi/JapaneseWikipediaTypoDataset](https://huggingface.co/datasets/JunSotohigashi/JapaneseWikipediaTypoDataset)から,漢字誤変換のみを抽出しています.
誤りの種類が`kanji-conversion_a``kanji-conversion_b`の事例のみをフィルタリングし,誤り部分の前と後ろに文を分割しました.
これにより,`pre_text``text_head + pre_str + text_tail`と等価になります.
`post_text`については,diffsに複数のデータが存在する場合にはそれをすべて適用したあとの文字列であるため,`post_text``text_head + post_str + text_tail`が同じになるとは限りません.
生成に使用したソースコードは[ここ](https://github.com/JunSotohigashi/misusing-corpus-jp/tree/v2.2)から参照できます.
## ライセンス
配布元に従い,CC-BY-SA 3.0とします.