metadata
dataset_info:
features:
- name: page
dtype: string
- name: title
dtype: string
- name: pre_str
dtype: string
- name: post_str
dtype: string
- name: pre_bart_likelihood
dtype: float64
- name: post_bart_likelihood
dtype: float64
- name: category
dtype: string
- name: text_head
dtype: string
- name: text_tail
dtype: string
splits:
- name: train
num_bytes: 79765386
num_examples: 291954
- name: test
num_bytes: 584213
num_examples: 2100
download_size: 46334306
dataset_size: 80349599
configs:
- config_name: default
data_files:
- split: train
path: data/train-*
- split: test
path: data/test-*
license: cc-by-sa-3.0
language:
- ja
日本語ウィキペディア入力誤りデータセット (漢字誤変換抽出版)
概要
このデータセットは,京都大学 言語メディア研究室によって公開されているデータセットをHuggingFaceで使用できるよう変換したものです.
日本語Wikipedia入力誤りデータセット (v2) - 京都大学 言語メディア研究室
このデータセットでは,JunSotohigashi/JapaneseWikipediaTypoDatasetから,漢字誤変換のみを抽出しています.
誤りの種類がkanji-conversion_a
とkanji-conversion_b
の事例のみをフィルタリングし,誤り部分の前と後ろに文を分割しました.
これにより,pre_text
はtext_head + pre_str + text_tail
と等価になります.post_text
については,diffsに複数のデータが存在する場合にはそれをすべて適用したあとの文字列であるため,post_text
とtext_head + post_str + text_tail
が同じになるとは限りません.
生成に使用したソースコードはここから参照できます.
ライセンス
配布元に従い,CC-BY-SA 3.0とします.