abaddon182 commited on
Commit
1bdfa0a
·
verified ·
1 Parent(s): 83f8fb6

Training in progress, step 500, checkpoint

Browse files
last-checkpoint/adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:fd7ec7ed8621950c4f4ce3df1a465257096ff664ab6591a01a76f40a81de5452
3
  size 138995824
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:91a92f0d5fa53563c8e3cb59e75f4f4a435459031430247e4e1068cf29e87b03
3
  size 138995824
last-checkpoint/optimizer.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:acabe7c12083d0e3e16bf3d884a9c9e8c0bbb0afb6d20443b3ad6b4d1ecda373
3
  size 71078228
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:9aa2fe4f4524584b283769f498f2c0b482df9fbe9667610a56eb1c754f549414
3
  size 71078228
last-checkpoint/rng_state.pth CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:dbe0fb4c7c173c17f1ec9c17f771c84df701a98081e25c9b53f8fced8c3bbca6
3
  size 14244
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:eb8ed34c03405748b8b867d86edd4e42a95d2cdebd3d6b517ab6062bc6a8540d
3
  size 14244
last-checkpoint/scheduler.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:505f9225762b105f8ca5168f44d99b2f8467174f4ade85f1cc95f684fbd828e0
3
  size 1064
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fe1d153de177b356f9e3a70d6e4ec979560b0c300994e71ca4cb89afc74c5b3a
3
  size 1064
last-checkpoint/trainer_state.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
- "best_metric": 1.6988234519958496,
3
- "best_model_checkpoint": "miner_id_24/checkpoint-400",
4
- "epoch": 0.13499831252109348,
5
  "eval_steps": 100,
6
- "global_step": 400,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
@@ -2847,6 +2847,714 @@
2847
  "eval_samples_per_second": 60.213,
2848
  "eval_steps_per_second": 15.059,
2849
  "step": 400
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2850
  }
2851
  ],
2852
  "logging_steps": 1,
@@ -2870,12 +3578,12 @@
2870
  "should_evaluate": false,
2871
  "should_log": false,
2872
  "should_save": true,
2873
- "should_training_stop": false
2874
  },
2875
  "attributes": {}
2876
  }
2877
  },
2878
- "total_flos": 2.7475518160896e+16,
2879
  "train_batch_size": 8,
2880
  "trial_name": null,
2881
  "trial_params": null
 
1
  {
2
+ "best_metric": 1.692722201347351,
3
+ "best_model_checkpoint": "miner_id_24/checkpoint-500",
4
+ "epoch": 0.16874789065136686,
5
  "eval_steps": 100,
6
+ "global_step": 500,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
 
2847
  "eval_samples_per_second": 60.213,
2848
  "eval_steps_per_second": 15.059,
2849
  "step": 400
2850
+ },
2851
+ {
2852
+ "epoch": 0.13533580830239622,
2853
+ "grad_norm": 0.3129079043865204,
2854
+ "learning_rate": 1.013396731136465e-05,
2855
+ "loss": 0.9035,
2856
+ "step": 401
2857
+ },
2858
+ {
2859
+ "epoch": 0.13567330408369896,
2860
+ "grad_norm": 0.37935182452201843,
2861
+ "learning_rate": 9.937309365446973e-06,
2862
+ "loss": 1.0468,
2863
+ "step": 402
2864
+ },
2865
+ {
2866
+ "epoch": 0.1360107998650017,
2867
+ "grad_norm": 0.4280663728713989,
2868
+ "learning_rate": 9.742367571857091e-06,
2869
+ "loss": 1.1142,
2870
+ "step": 403
2871
+ },
2872
+ {
2873
+ "epoch": 0.13634829564630443,
2874
+ "grad_norm": 0.47628381848335266,
2875
+ "learning_rate": 9.549150281252633e-06,
2876
+ "loss": 1.2826,
2877
+ "step": 404
2878
+ },
2879
+ {
2880
+ "epoch": 0.13668579142760715,
2881
+ "grad_norm": 0.44870856404304504,
2882
+ "learning_rate": 9.357665770419244e-06,
2883
+ "loss": 1.2352,
2884
+ "step": 405
2885
+ },
2886
+ {
2887
+ "epoch": 0.13702328720890988,
2888
+ "grad_norm": 0.45660126209259033,
2889
+ "learning_rate": 9.167922241916055e-06,
2890
+ "loss": 1.4218,
2891
+ "step": 406
2892
+ },
2893
+ {
2894
+ "epoch": 0.13736078299021262,
2895
+ "grad_norm": 0.4797450304031372,
2896
+ "learning_rate": 8.97992782372432e-06,
2897
+ "loss": 1.5542,
2898
+ "step": 407
2899
+ },
2900
+ {
2901
+ "epoch": 0.13769827877151536,
2902
+ "grad_norm": 0.5301920175552368,
2903
+ "learning_rate": 8.793690568899216e-06,
2904
+ "loss": 1.4398,
2905
+ "step": 408
2906
+ },
2907
+ {
2908
+ "epoch": 0.1380357745528181,
2909
+ "grad_norm": 0.5419598817825317,
2910
+ "learning_rate": 8.609218455224893e-06,
2911
+ "loss": 1.5041,
2912
+ "step": 409
2913
+ },
2914
+ {
2915
+ "epoch": 0.13837327033412083,
2916
+ "grad_norm": 0.5022268891334534,
2917
+ "learning_rate": 8.426519384872733e-06,
2918
+ "loss": 1.4239,
2919
+ "step": 410
2920
+ },
2921
+ {
2922
+ "epoch": 0.13871076611542354,
2923
+ "grad_norm": 0.5344182848930359,
2924
+ "learning_rate": 8.245601184062852e-06,
2925
+ "loss": 1.3749,
2926
+ "step": 411
2927
+ },
2928
+ {
2929
+ "epoch": 0.13904826189672628,
2930
+ "grad_norm": 0.49099403619766235,
2931
+ "learning_rate": 8.066471602728803e-06,
2932
+ "loss": 1.564,
2933
+ "step": 412
2934
+ },
2935
+ {
2936
+ "epoch": 0.13938575767802902,
2937
+ "grad_norm": 0.5761291980743408,
2938
+ "learning_rate": 7.889138314185678e-06,
2939
+ "loss": 1.6728,
2940
+ "step": 413
2941
+ },
2942
+ {
2943
+ "epoch": 0.13972325345933176,
2944
+ "grad_norm": 0.5480265021324158,
2945
+ "learning_rate": 7.71360891480134e-06,
2946
+ "loss": 1.391,
2947
+ "step": 414
2948
+ },
2949
+ {
2950
+ "epoch": 0.1400607492406345,
2951
+ "grad_norm": 0.5651693344116211,
2952
+ "learning_rate": 7.539890923671062e-06,
2953
+ "loss": 1.7986,
2954
+ "step": 415
2955
+ },
2956
+ {
2957
+ "epoch": 0.14039824502193723,
2958
+ "grad_norm": 0.5342073440551758,
2959
+ "learning_rate": 7.367991782295391e-06,
2960
+ "loss": 1.628,
2961
+ "step": 416
2962
+ },
2963
+ {
2964
+ "epoch": 0.14073574080323997,
2965
+ "grad_norm": 0.5717581510543823,
2966
+ "learning_rate": 7.197918854261432e-06,
2967
+ "loss": 1.7378,
2968
+ "step": 417
2969
+ },
2970
+ {
2971
+ "epoch": 0.14107323658454268,
2972
+ "grad_norm": 0.5637682676315308,
2973
+ "learning_rate": 7.029679424927365e-06,
2974
+ "loss": 1.7038,
2975
+ "step": 418
2976
+ },
2977
+ {
2978
+ "epoch": 0.14141073236584542,
2979
+ "grad_norm": 0.5095825791358948,
2980
+ "learning_rate": 6.863280701110408e-06,
2981
+ "loss": 1.7386,
2982
+ "step": 419
2983
+ },
2984
+ {
2985
+ "epoch": 0.14174822814714816,
2986
+ "grad_norm": 0.5181745886802673,
2987
+ "learning_rate": 6.698729810778065e-06,
2988
+ "loss": 1.4854,
2989
+ "step": 420
2990
+ },
2991
+ {
2992
+ "epoch": 0.1420857239284509,
2993
+ "grad_norm": 0.6405823826789856,
2994
+ "learning_rate": 6.536033802742813e-06,
2995
+ "loss": 1.8479,
2996
+ "step": 421
2997
+ },
2998
+ {
2999
+ "epoch": 0.14242321970975363,
3000
+ "grad_norm": 0.5425795316696167,
3001
+ "learning_rate": 6.375199646360142e-06,
3002
+ "loss": 1.5897,
3003
+ "step": 422
3004
+ },
3005
+ {
3006
+ "epoch": 0.14276071549105637,
3007
+ "grad_norm": 0.5734001994132996,
3008
+ "learning_rate": 6.216234231230012e-06,
3009
+ "loss": 1.8683,
3010
+ "step": 423
3011
+ },
3012
+ {
3013
+ "epoch": 0.14309821127235908,
3014
+ "grad_norm": 0.5597679615020752,
3015
+ "learning_rate": 6.059144366901736e-06,
3016
+ "loss": 1.706,
3017
+ "step": 424
3018
+ },
3019
+ {
3020
+ "epoch": 0.14343570705366182,
3021
+ "grad_norm": 0.5667785406112671,
3022
+ "learning_rate": 5.903936782582253e-06,
3023
+ "loss": 1.6797,
3024
+ "step": 425
3025
+ },
3026
+ {
3027
+ "epoch": 0.14377320283496456,
3028
+ "grad_norm": 0.5886920690536499,
3029
+ "learning_rate": 5.750618126847912e-06,
3030
+ "loss": 1.5788,
3031
+ "step": 426
3032
+ },
3033
+ {
3034
+ "epoch": 0.1441106986162673,
3035
+ "grad_norm": 0.5989837050437927,
3036
+ "learning_rate": 5.599194967359639e-06,
3037
+ "loss": 1.7581,
3038
+ "step": 427
3039
+ },
3040
+ {
3041
+ "epoch": 0.14444819439757003,
3042
+ "grad_norm": 0.6294358372688293,
3043
+ "learning_rate": 5.449673790581611e-06,
3044
+ "loss": 1.5623,
3045
+ "step": 428
3046
+ },
3047
+ {
3048
+ "epoch": 0.14478569017887277,
3049
+ "grad_norm": 0.6019811034202576,
3050
+ "learning_rate": 5.302061001503394e-06,
3051
+ "loss": 1.8442,
3052
+ "step": 429
3053
+ },
3054
+ {
3055
+ "epoch": 0.1451231859601755,
3056
+ "grad_norm": 0.6037694811820984,
3057
+ "learning_rate": 5.156362923365588e-06,
3058
+ "loss": 1.8926,
3059
+ "step": 430
3060
+ },
3061
+ {
3062
+ "epoch": 0.14546068174147822,
3063
+ "grad_norm": 0.6271533966064453,
3064
+ "learning_rate": 5.012585797388936e-06,
3065
+ "loss": 1.7361,
3066
+ "step": 431
3067
+ },
3068
+ {
3069
+ "epoch": 0.14579817752278096,
3070
+ "grad_norm": 0.6006637215614319,
3071
+ "learning_rate": 4.87073578250698e-06,
3072
+ "loss": 2.1113,
3073
+ "step": 432
3074
+ },
3075
+ {
3076
+ "epoch": 0.1461356733040837,
3077
+ "grad_norm": 0.6098272204399109,
3078
+ "learning_rate": 4.730818955102234e-06,
3079
+ "loss": 1.8291,
3080
+ "step": 433
3081
+ },
3082
+ {
3083
+ "epoch": 0.14647316908538643,
3084
+ "grad_norm": 0.5911081433296204,
3085
+ "learning_rate": 4.592841308745932e-06,
3086
+ "loss": 1.8071,
3087
+ "step": 434
3088
+ },
3089
+ {
3090
+ "epoch": 0.14681066486668917,
3091
+ "grad_norm": 0.6096124649047852,
3092
+ "learning_rate": 4.456808753941205e-06,
3093
+ "loss": 1.8495,
3094
+ "step": 435
3095
+ },
3096
+ {
3097
+ "epoch": 0.1471481606479919,
3098
+ "grad_norm": 0.6468681693077087,
3099
+ "learning_rate": 4.322727117869951e-06,
3100
+ "loss": 1.9272,
3101
+ "step": 436
3102
+ },
3103
+ {
3104
+ "epoch": 0.14748565642929462,
3105
+ "grad_norm": 0.691624641418457,
3106
+ "learning_rate": 4.190602144143207e-06,
3107
+ "loss": 1.9704,
3108
+ "step": 437
3109
+ },
3110
+ {
3111
+ "epoch": 0.14782315221059736,
3112
+ "grad_norm": 0.6680425405502319,
3113
+ "learning_rate": 4.06043949255509e-06,
3114
+ "loss": 2.0347,
3115
+ "step": 438
3116
+ },
3117
+ {
3118
+ "epoch": 0.1481606479919001,
3119
+ "grad_norm": 0.6429935693740845,
3120
+ "learning_rate": 3.932244738840379e-06,
3121
+ "loss": 1.9344,
3122
+ "step": 439
3123
+ },
3124
+ {
3125
+ "epoch": 0.14849814377320283,
3126
+ "grad_norm": 0.6537317633628845,
3127
+ "learning_rate": 3.8060233744356633e-06,
3128
+ "loss": 2.1843,
3129
+ "step": 440
3130
+ },
3131
+ {
3132
+ "epoch": 0.14883563955450557,
3133
+ "grad_norm": 0.6376103758811951,
3134
+ "learning_rate": 3.681780806244095e-06,
3135
+ "loss": 1.9123,
3136
+ "step": 441
3137
+ },
3138
+ {
3139
+ "epoch": 0.1491731353358083,
3140
+ "grad_norm": 0.6572866439819336,
3141
+ "learning_rate": 3.5595223564037884e-06,
3142
+ "loss": 1.9031,
3143
+ "step": 442
3144
+ },
3145
+ {
3146
+ "epoch": 0.14951063111711105,
3147
+ "grad_norm": 0.6777390837669373,
3148
+ "learning_rate": 3.4392532620598216e-06,
3149
+ "loss": 2.0248,
3150
+ "step": 443
3151
+ },
3152
+ {
3153
+ "epoch": 0.14984812689841376,
3154
+ "grad_norm": 0.6614691019058228,
3155
+ "learning_rate": 3.3209786751399187e-06,
3156
+ "loss": 1.8491,
3157
+ "step": 444
3158
+ },
3159
+ {
3160
+ "epoch": 0.1501856226797165,
3161
+ "grad_norm": 0.6615676879882812,
3162
+ "learning_rate": 3.2047036621337236e-06,
3163
+ "loss": 2.0458,
3164
+ "step": 445
3165
+ },
3166
+ {
3167
+ "epoch": 0.15052311846101923,
3168
+ "grad_norm": 0.6535036563873291,
3169
+ "learning_rate": 3.0904332038757977e-06,
3170
+ "loss": 1.9352,
3171
+ "step": 446
3172
+ },
3173
+ {
3174
+ "epoch": 0.15086061424232197,
3175
+ "grad_norm": 0.7253483533859253,
3176
+ "learning_rate": 2.978172195332263e-06,
3177
+ "loss": 1.9182,
3178
+ "step": 447
3179
+ },
3180
+ {
3181
+ "epoch": 0.1511981100236247,
3182
+ "grad_norm": 0.7578319907188416,
3183
+ "learning_rate": 2.8679254453910785e-06,
3184
+ "loss": 2.186,
3185
+ "step": 448
3186
+ },
3187
+ {
3188
+ "epoch": 0.15153560580492745,
3189
+ "grad_norm": 0.7149704098701477,
3190
+ "learning_rate": 2.759697676656098e-06,
3191
+ "loss": 2.0296,
3192
+ "step": 449
3193
+ },
3194
+ {
3195
+ "epoch": 0.15187310158623019,
3196
+ "grad_norm": 0.9842973351478577,
3197
+ "learning_rate": 2.653493525244721e-06,
3198
+ "loss": 1.9824,
3199
+ "step": 450
3200
+ },
3201
+ {
3202
+ "epoch": 0.1522105973675329,
3203
+ "grad_norm": 0.3274257481098175,
3204
+ "learning_rate": 2.549317540589308e-06,
3205
+ "loss": 0.7707,
3206
+ "step": 451
3207
+ },
3208
+ {
3209
+ "epoch": 0.15254809314883563,
3210
+ "grad_norm": 0.3513686954975128,
3211
+ "learning_rate": 2.4471741852423237e-06,
3212
+ "loss": 1.2193,
3213
+ "step": 452
3214
+ },
3215
+ {
3216
+ "epoch": 0.15288558893013837,
3217
+ "grad_norm": 0.3720841705799103,
3218
+ "learning_rate": 2.3470678346851518e-06,
3219
+ "loss": 1.0917,
3220
+ "step": 453
3221
+ },
3222
+ {
3223
+ "epoch": 0.1532230847114411,
3224
+ "grad_norm": 0.40632250905036926,
3225
+ "learning_rate": 2.2490027771406687e-06,
3226
+ "loss": 1.3549,
3227
+ "step": 454
3228
+ },
3229
+ {
3230
+ "epoch": 0.15356058049274385,
3231
+ "grad_norm": 0.4259728193283081,
3232
+ "learning_rate": 2.152983213389559e-06,
3233
+ "loss": 1.2863,
3234
+ "step": 455
3235
+ },
3236
+ {
3237
+ "epoch": 0.15389807627404659,
3238
+ "grad_norm": 0.44335639476776123,
3239
+ "learning_rate": 2.0590132565903476e-06,
3240
+ "loss": 1.6179,
3241
+ "step": 456
3242
+ },
3243
+ {
3244
+ "epoch": 0.1542355720553493,
3245
+ "grad_norm": 0.5289120674133301,
3246
+ "learning_rate": 1.9670969321032407e-06,
3247
+ "loss": 1.5035,
3248
+ "step": 457
3249
+ },
3250
+ {
3251
+ "epoch": 0.15457306783665203,
3252
+ "grad_norm": 0.48128408193588257,
3253
+ "learning_rate": 1.8772381773176417e-06,
3254
+ "loss": 1.5238,
3255
+ "step": 458
3256
+ },
3257
+ {
3258
+ "epoch": 0.15491056361795477,
3259
+ "grad_norm": 0.48134317994117737,
3260
+ "learning_rate": 1.7894408414835362e-06,
3261
+ "loss": 1.3862,
3262
+ "step": 459
3263
+ },
3264
+ {
3265
+ "epoch": 0.1552480593992575,
3266
+ "grad_norm": 0.47726309299468994,
3267
+ "learning_rate": 1.70370868554659e-06,
3268
+ "loss": 1.6318,
3269
+ "step": 460
3270
+ },
3271
+ {
3272
+ "epoch": 0.15558555518056025,
3273
+ "grad_norm": 0.5632562637329102,
3274
+ "learning_rate": 1.620045381987012e-06,
3275
+ "loss": 1.6729,
3276
+ "step": 461
3277
+ },
3278
+ {
3279
+ "epoch": 0.15592305096186299,
3280
+ "grad_norm": 0.5401945114135742,
3281
+ "learning_rate": 1.5384545146622852e-06,
3282
+ "loss": 1.5796,
3283
+ "step": 462
3284
+ },
3285
+ {
3286
+ "epoch": 0.15626054674316572,
3287
+ "grad_norm": 0.5418731570243835,
3288
+ "learning_rate": 1.4589395786535953e-06,
3289
+ "loss": 1.7439,
3290
+ "step": 463
3291
+ },
3292
+ {
3293
+ "epoch": 0.15659804252446843,
3294
+ "grad_norm": 0.5528028011322021,
3295
+ "learning_rate": 1.3815039801161721e-06,
3296
+ "loss": 1.7827,
3297
+ "step": 464
3298
+ },
3299
+ {
3300
+ "epoch": 0.15693553830577117,
3301
+ "grad_norm": 0.5368233323097229,
3302
+ "learning_rate": 1.3061510361333185e-06,
3303
+ "loss": 1.5638,
3304
+ "step": 465
3305
+ },
3306
+ {
3307
+ "epoch": 0.1572730340870739,
3308
+ "grad_norm": 0.5752639174461365,
3309
+ "learning_rate": 1.232883974574367e-06,
3310
+ "loss": 1.711,
3311
+ "step": 466
3312
+ },
3313
+ {
3314
+ "epoch": 0.15761052986837665,
3315
+ "grad_norm": 0.570741593837738,
3316
+ "learning_rate": 1.1617059339563807e-06,
3317
+ "loss": 1.8203,
3318
+ "step": 467
3319
+ },
3320
+ {
3321
+ "epoch": 0.15794802564967939,
3322
+ "grad_norm": 0.5896568298339844,
3323
+ "learning_rate": 1.0926199633097157e-06,
3324
+ "loss": 1.8287,
3325
+ "step": 468
3326
+ },
3327
+ {
3328
+ "epoch": 0.15828552143098212,
3329
+ "grad_norm": 0.5372335910797119,
3330
+ "learning_rate": 1.0256290220474307e-06,
3331
+ "loss": 1.4701,
3332
+ "step": 469
3333
+ },
3334
+ {
3335
+ "epoch": 0.15862301721228483,
3336
+ "grad_norm": 0.5423702001571655,
3337
+ "learning_rate": 9.607359798384785e-07,
3338
+ "loss": 1.6354,
3339
+ "step": 470
3340
+ },
3341
+ {
3342
+ "epoch": 0.15896051299358757,
3343
+ "grad_norm": 0.5899948477745056,
3344
+ "learning_rate": 8.979436164848088e-07,
3345
+ "loss": 1.8108,
3346
+ "step": 471
3347
+ },
3348
+ {
3349
+ "epoch": 0.1592980087748903,
3350
+ "grad_norm": 0.5420827269554138,
3351
+ "learning_rate": 8.372546218022747e-07,
3352
+ "loss": 1.9779,
3353
+ "step": 472
3354
+ },
3355
+ {
3356
+ "epoch": 0.15963550455619305,
3357
+ "grad_norm": 0.5416197180747986,
3358
+ "learning_rate": 7.786715955054203e-07,
3359
+ "loss": 1.7092,
3360
+ "step": 473
3361
+ },
3362
+ {
3363
+ "epoch": 0.15997300033749579,
3364
+ "grad_norm": 0.6021366119384766,
3365
+ "learning_rate": 7.221970470961125e-07,
3366
+ "loss": 1.6724,
3367
+ "step": 474
3368
+ },
3369
+ {
3370
+ "epoch": 0.16031049611879852,
3371
+ "grad_norm": 0.5433163642883301,
3372
+ "learning_rate": 6.678333957560512e-07,
3373
+ "loss": 1.8533,
3374
+ "step": 475
3375
+ },
3376
+ {
3377
+ "epoch": 0.16064799190010126,
3378
+ "grad_norm": 0.5783931016921997,
3379
+ "learning_rate": 6.15582970243117e-07,
3380
+ "loss": 1.6125,
3381
+ "step": 476
3382
+ },
3383
+ {
3384
+ "epoch": 0.16098548768140397,
3385
+ "grad_norm": 0.6139048337936401,
3386
+ "learning_rate": 5.654480087916303e-07,
3387
+ "loss": 1.8255,
3388
+ "step": 477
3389
+ },
3390
+ {
3391
+ "epoch": 0.1613229834627067,
3392
+ "grad_norm": 0.5656695365905762,
3393
+ "learning_rate": 5.174306590164879e-07,
3394
+ "loss": 2.0079,
3395
+ "step": 478
3396
+ },
3397
+ {
3398
+ "epoch": 0.16166047924400945,
3399
+ "grad_norm": 0.6840364336967468,
3400
+ "learning_rate": 4.715329778211375e-07,
3401
+ "loss": 1.9251,
3402
+ "step": 479
3403
+ },
3404
+ {
3405
+ "epoch": 0.16199797502531219,
3406
+ "grad_norm": 0.552597165107727,
3407
+ "learning_rate": 4.277569313094809e-07,
3408
+ "loss": 1.8384,
3409
+ "step": 480
3410
+ },
3411
+ {
3412
+ "epoch": 0.16233547080661492,
3413
+ "grad_norm": 0.635677695274353,
3414
+ "learning_rate": 3.8610439470164737e-07,
3415
+ "loss": 1.9796,
3416
+ "step": 481
3417
+ },
3418
+ {
3419
+ "epoch": 0.16267296658791766,
3420
+ "grad_norm": 0.6121070981025696,
3421
+ "learning_rate": 3.465771522536854e-07,
3422
+ "loss": 1.7527,
3423
+ "step": 482
3424
+ },
3425
+ {
3426
+ "epoch": 0.16301046236922037,
3427
+ "grad_norm": 0.6411792039871216,
3428
+ "learning_rate": 3.09176897181096e-07,
3429
+ "loss": 1.7262,
3430
+ "step": 483
3431
+ },
3432
+ {
3433
+ "epoch": 0.1633479581505231,
3434
+ "grad_norm": 0.5451667904853821,
3435
+ "learning_rate": 2.7390523158633554e-07,
3436
+ "loss": 1.9697,
3437
+ "step": 484
3438
+ },
3439
+ {
3440
+ "epoch": 0.16368545393182585,
3441
+ "grad_norm": 0.5873634815216064,
3442
+ "learning_rate": 2.407636663901591e-07,
3443
+ "loss": 1.601,
3444
+ "step": 485
3445
+ },
3446
+ {
3447
+ "epoch": 0.16402294971312859,
3448
+ "grad_norm": 0.6943976879119873,
3449
+ "learning_rate": 2.0975362126691712e-07,
3450
+ "loss": 2.1144,
3451
+ "step": 486
3452
+ },
3453
+ {
3454
+ "epoch": 0.16436044549443132,
3455
+ "grad_norm": 0.6562677025794983,
3456
+ "learning_rate": 1.8087642458373134e-07,
3457
+ "loss": 2.0762,
3458
+ "step": 487
3459
+ },
3460
+ {
3461
+ "epoch": 0.16469794127573406,
3462
+ "grad_norm": 0.6708371043205261,
3463
+ "learning_rate": 1.5413331334360182e-07,
3464
+ "loss": 1.9978,
3465
+ "step": 488
3466
+ },
3467
+ {
3468
+ "epoch": 0.1650354370570368,
3469
+ "grad_norm": 0.6782956719398499,
3470
+ "learning_rate": 1.2952543313240472e-07,
3471
+ "loss": 1.8231,
3472
+ "step": 489
3473
+ },
3474
+ {
3475
+ "epoch": 0.1653729328383395,
3476
+ "grad_norm": 0.6593528985977173,
3477
+ "learning_rate": 1.0705383806982606e-07,
3478
+ "loss": 2.0718,
3479
+ "step": 490
3480
+ },
3481
+ {
3482
+ "epoch": 0.16571042861964225,
3483
+ "grad_norm": 0.6144323348999023,
3484
+ "learning_rate": 8.671949076420882e-08,
3485
+ "loss": 1.8841,
3486
+ "step": 491
3487
+ },
3488
+ {
3489
+ "epoch": 0.16604792440094499,
3490
+ "grad_norm": 0.6653460264205933,
3491
+ "learning_rate": 6.852326227130834e-08,
3492
+ "loss": 2.095,
3493
+ "step": 492
3494
+ },
3495
+ {
3496
+ "epoch": 0.16638542018224772,
3497
+ "grad_norm": 0.7157003283500671,
3498
+ "learning_rate": 5.246593205699424e-08,
3499
+ "loss": 2.1404,
3500
+ "step": 493
3501
+ },
3502
+ {
3503
+ "epoch": 0.16672291596355046,
3504
+ "grad_norm": 0.6483384966850281,
3505
+ "learning_rate": 3.8548187963854956e-08,
3506
+ "loss": 2.1051,
3507
+ "step": 494
3508
+ },
3509
+ {
3510
+ "epoch": 0.1670604117448532,
3511
+ "grad_norm": 0.6570152640342712,
3512
+ "learning_rate": 2.6770626181715773e-08,
3513
+ "loss": 2.1723,
3514
+ "step": 495
3515
+ },
3516
+ {
3517
+ "epoch": 0.16739790752615594,
3518
+ "grad_norm": 0.692857027053833,
3519
+ "learning_rate": 1.7133751222137007e-08,
3520
+ "loss": 1.936,
3521
+ "step": 496
3522
+ },
3523
+ {
3524
+ "epoch": 0.16773540330745865,
3525
+ "grad_norm": 0.7435788512229919,
3526
+ "learning_rate": 9.637975896759077e-09,
3527
+ "loss": 2.2764,
3528
+ "step": 497
3529
+ },
3530
+ {
3531
+ "epoch": 0.16807289908876138,
3532
+ "grad_norm": 0.6761675477027893,
3533
+ "learning_rate": 4.2836212996499865e-09,
3534
+ "loss": 2.0686,
3535
+ "step": 498
3536
+ },
3537
+ {
3538
+ "epoch": 0.16841039487006412,
3539
+ "grad_norm": 0.6835579872131348,
3540
+ "learning_rate": 1.0709167935385455e-09,
3541
+ "loss": 2.0321,
3542
+ "step": 499
3543
+ },
3544
+ {
3545
+ "epoch": 0.16874789065136686,
3546
+ "grad_norm": 0.8246026635169983,
3547
+ "learning_rate": 0.0,
3548
+ "loss": 2.0082,
3549
+ "step": 500
3550
+ },
3551
+ {
3552
+ "epoch": 0.16874789065136686,
3553
+ "eval_loss": 1.692722201347351,
3554
+ "eval_runtime": 82.8216,
3555
+ "eval_samples_per_second": 60.25,
3556
+ "eval_steps_per_second": 15.069,
3557
+ "step": 500
3558
  }
3559
  ],
3560
  "logging_steps": 1,
 
3578
  "should_evaluate": false,
3579
  "should_log": false,
3580
  "should_save": true,
3581
+ "should_training_stop": true
3582
  },
3583
  "attributes": {}
3584
  }
3585
  },
3586
+ "total_flos": 3.434439770112e+16,
3587
  "train_batch_size": 8,
3588
  "trial_name": null,
3589
  "trial_params": null