risolmayo's picture
Training in progress, step 150, checkpoint
30ed95b verified
raw
history blame
26.9 kB
{
"best_metric": 0.9886458516120911,
"best_model_checkpoint": "miner_id_24/checkpoint-150",
"epoch": 1.5625,
"eval_steps": 50,
"global_step": 150,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.010416666666666666,
"grad_norm": 11.280781745910645,
"learning_rate": 8.000000000000001e-06,
"loss": 5.4441,
"step": 1
},
{
"epoch": 0.010416666666666666,
"eval_loss": 1.5810514688491821,
"eval_runtime": 12.3879,
"eval_samples_per_second": 13.077,
"eval_steps_per_second": 3.31,
"step": 1
},
{
"epoch": 0.020833333333333332,
"grad_norm": 11.971577644348145,
"learning_rate": 1.6000000000000003e-05,
"loss": 5.4898,
"step": 2
},
{
"epoch": 0.03125,
"grad_norm": 11.384745597839355,
"learning_rate": 2.4e-05,
"loss": 5.5719,
"step": 3
},
{
"epoch": 0.041666666666666664,
"grad_norm": 10.148287773132324,
"learning_rate": 3.2000000000000005e-05,
"loss": 5.4068,
"step": 4
},
{
"epoch": 0.052083333333333336,
"grad_norm": 11.926627159118652,
"learning_rate": 4e-05,
"loss": 5.3455,
"step": 5
},
{
"epoch": 0.0625,
"grad_norm": 9.817693710327148,
"learning_rate": 4.8e-05,
"loss": 5.1963,
"step": 6
},
{
"epoch": 0.07291666666666667,
"grad_norm": 9.60680103302002,
"learning_rate": 5.6e-05,
"loss": 5.1528,
"step": 7
},
{
"epoch": 0.08333333333333333,
"grad_norm": 9.895963668823242,
"learning_rate": 6.400000000000001e-05,
"loss": 5.0005,
"step": 8
},
{
"epoch": 0.09375,
"grad_norm": 8.643511772155762,
"learning_rate": 7.2e-05,
"loss": 4.9533,
"step": 9
},
{
"epoch": 0.10416666666666667,
"grad_norm": 8.086094856262207,
"learning_rate": 8e-05,
"loss": 4.7944,
"step": 10
},
{
"epoch": 0.11458333333333333,
"grad_norm": 8.04609203338623,
"learning_rate": 7.999453219969877e-05,
"loss": 4.586,
"step": 11
},
{
"epoch": 0.125,
"grad_norm": 8.573185920715332,
"learning_rate": 7.997813029363704e-05,
"loss": 4.904,
"step": 12
},
{
"epoch": 0.13541666666666666,
"grad_norm": 600.9924926757812,
"learning_rate": 7.99507987659322e-05,
"loss": 5.3512,
"step": 13
},
{
"epoch": 0.14583333333333334,
"grad_norm": 30.291379928588867,
"learning_rate": 7.991254508875098e-05,
"loss": 4.9444,
"step": 14
},
{
"epoch": 0.15625,
"grad_norm": 7.431931018829346,
"learning_rate": 7.98633797202668e-05,
"loss": 4.7438,
"step": 15
},
{
"epoch": 0.16666666666666666,
"grad_norm": 8.01929759979248,
"learning_rate": 7.980331610180046e-05,
"loss": 4.799,
"step": 16
},
{
"epoch": 0.17708333333333334,
"grad_norm": 8.046192169189453,
"learning_rate": 7.973237065414553e-05,
"loss": 4.6779,
"step": 17
},
{
"epoch": 0.1875,
"grad_norm": 7.337327003479004,
"learning_rate": 7.965056277307902e-05,
"loss": 4.4264,
"step": 18
},
{
"epoch": 0.19791666666666666,
"grad_norm": 7.198958873748779,
"learning_rate": 7.955791482405875e-05,
"loss": 4.3606,
"step": 19
},
{
"epoch": 0.20833333333333334,
"grad_norm": 7.8494343757629395,
"learning_rate": 7.94544521361089e-05,
"loss": 4.2015,
"step": 20
},
{
"epoch": 0.21875,
"grad_norm": 7.418194770812988,
"learning_rate": 7.93402029948953e-05,
"loss": 4.4461,
"step": 21
},
{
"epoch": 0.22916666666666666,
"grad_norm": 7.783334732055664,
"learning_rate": 7.921519863499239e-05,
"loss": 4.6302,
"step": 22
},
{
"epoch": 0.23958333333333334,
"grad_norm": 9.167252540588379,
"learning_rate": 7.907947323134398e-05,
"loss": 5.5673,
"step": 23
},
{
"epoch": 0.25,
"grad_norm": 7.267993450164795,
"learning_rate": 7.893306388992023e-05,
"loss": 4.6324,
"step": 24
},
{
"epoch": 0.2604166666666667,
"grad_norm": 4.847051620483398,
"learning_rate": 7.877601063757323e-05,
"loss": 4.568,
"step": 25
},
{
"epoch": 0.2708333333333333,
"grad_norm": 4.387670516967773,
"learning_rate": 7.860835641109395e-05,
"loss": 4.4359,
"step": 26
},
{
"epoch": 0.28125,
"grad_norm": 4.699279308319092,
"learning_rate": 7.843014704547393e-05,
"loss": 4.4227,
"step": 27
},
{
"epoch": 0.2916666666666667,
"grad_norm": 5.291173934936523,
"learning_rate": 7.824143126137431e-05,
"loss": 4.4161,
"step": 28
},
{
"epoch": 0.3020833333333333,
"grad_norm": 5.426056385040283,
"learning_rate": 7.804226065180615e-05,
"loss": 4.5785,
"step": 29
},
{
"epoch": 0.3125,
"grad_norm": 5.04319429397583,
"learning_rate": 7.783268966802539e-05,
"loss": 4.4933,
"step": 30
},
{
"epoch": 0.3229166666666667,
"grad_norm": 5.2682342529296875,
"learning_rate": 7.761277560464645e-05,
"loss": 4.4068,
"step": 31
},
{
"epoch": 0.3333333333333333,
"grad_norm": 5.146570205688477,
"learning_rate": 7.738257858397844e-05,
"loss": 4.1566,
"step": 32
},
{
"epoch": 0.34375,
"grad_norm": 5.453159332275391,
"learning_rate": 7.71421615395883e-05,
"loss": 4.3581,
"step": 33
},
{
"epoch": 0.3541666666666667,
"grad_norm": 5.605067253112793,
"learning_rate": 7.68915901990954e-05,
"loss": 4.2831,
"step": 34
},
{
"epoch": 0.3645833333333333,
"grad_norm": 5.579160213470459,
"learning_rate": 7.663093306620231e-05,
"loss": 4.4607,
"step": 35
},
{
"epoch": 0.375,
"grad_norm": 5.544670581817627,
"learning_rate": 7.636026140196651e-05,
"loss": 4.255,
"step": 36
},
{
"epoch": 0.3854166666666667,
"grad_norm": 5.51400899887085,
"learning_rate": 7.607964920531837e-05,
"loss": 4.1813,
"step": 37
},
{
"epoch": 0.3958333333333333,
"grad_norm": 5.693131446838379,
"learning_rate": 7.578917319283055e-05,
"loss": 4.5103,
"step": 38
},
{
"epoch": 0.40625,
"grad_norm": 5.8311448097229,
"learning_rate": 7.548891277774448e-05,
"loss": 4.2608,
"step": 39
},
{
"epoch": 0.4166666666666667,
"grad_norm": 5.718422889709473,
"learning_rate": 7.517895004825956e-05,
"loss": 4.2481,
"step": 40
},
{
"epoch": 0.4270833333333333,
"grad_norm": 6.042418956756592,
"learning_rate": 7.48593697450911e-05,
"loss": 3.8565,
"step": 41
},
{
"epoch": 0.4375,
"grad_norm": 5.870940208435059,
"learning_rate": 7.453025923830296e-05,
"loss": 3.9054,
"step": 42
},
{
"epoch": 0.4479166666666667,
"grad_norm": 6.94326639175415,
"learning_rate": 7.419170850342156e-05,
"loss": 4.2016,
"step": 43
},
{
"epoch": 0.4583333333333333,
"grad_norm": 6.84446907043457,
"learning_rate": 7.384381009683742e-05,
"loss": 4.0745,
"step": 44
},
{
"epoch": 0.46875,
"grad_norm": 6.566938877105713,
"learning_rate": 7.348665913050115e-05,
"loss": 4.588,
"step": 45
},
{
"epoch": 0.4791666666666667,
"grad_norm": 7.720722675323486,
"learning_rate": 7.312035324592081e-05,
"loss": 5.3125,
"step": 46
},
{
"epoch": 0.4895833333333333,
"grad_norm": 5.039053440093994,
"learning_rate": 7.274499258746771e-05,
"loss": 4.358,
"step": 47
},
{
"epoch": 0.5,
"grad_norm": 4.551259517669678,
"learning_rate": 7.236067977499791e-05,
"loss": 4.4355,
"step": 48
},
{
"epoch": 0.5104166666666666,
"grad_norm": 3.7661449909210205,
"learning_rate": 7.196751987579699e-05,
"loss": 4.2863,
"step": 49
},
{
"epoch": 0.5208333333333334,
"grad_norm": 3.963446617126465,
"learning_rate": 7.156562037585576e-05,
"loss": 4.1386,
"step": 50
},
{
"epoch": 0.5208333333333334,
"eval_loss": 1.0782212018966675,
"eval_runtime": 12.6203,
"eval_samples_per_second": 12.836,
"eval_steps_per_second": 3.249,
"step": 50
},
{
"epoch": 0.53125,
"grad_norm": 4.134359359741211,
"learning_rate": 7.11550911504845e-05,
"loss": 4.4858,
"step": 51
},
{
"epoch": 0.5416666666666666,
"grad_norm": 4.288531303405762,
"learning_rate": 7.073604443427437e-05,
"loss": 4.2214,
"step": 52
},
{
"epoch": 0.5520833333333334,
"grad_norm": 4.7961955070495605,
"learning_rate": 7.03085947904134e-05,
"loss": 4.4175,
"step": 53
},
{
"epoch": 0.5625,
"grad_norm": 5.15302038192749,
"learning_rate": 6.987285907936617e-05,
"loss": 4.2692,
"step": 54
},
{
"epoch": 0.5729166666666666,
"grad_norm": 5.38447904586792,
"learning_rate": 6.942895642692527e-05,
"loss": 4.2599,
"step": 55
},
{
"epoch": 0.5833333333333334,
"grad_norm": 5.3263421058654785,
"learning_rate": 6.897700819164357e-05,
"loss": 4.1761,
"step": 56
},
{
"epoch": 0.59375,
"grad_norm": 5.189230918884277,
"learning_rate": 6.851713793165589e-05,
"loss": 4.2075,
"step": 57
},
{
"epoch": 0.6041666666666666,
"grad_norm": 5.026007652282715,
"learning_rate": 6.804947137089955e-05,
"loss": 4.2785,
"step": 58
},
{
"epoch": 0.6145833333333334,
"grad_norm": 5.158576011657715,
"learning_rate": 6.757413636474263e-05,
"loss": 4.148,
"step": 59
},
{
"epoch": 0.625,
"grad_norm": 4.857342720031738,
"learning_rate": 6.709126286502965e-05,
"loss": 3.9364,
"step": 60
},
{
"epoch": 0.6354166666666666,
"grad_norm": 5.119851112365723,
"learning_rate": 6.660098288455393e-05,
"loss": 4.1834,
"step": 61
},
{
"epoch": 0.6458333333333334,
"grad_norm": 5.3493971824646,
"learning_rate": 6.610343046096674e-05,
"loss": 3.9739,
"step": 62
},
{
"epoch": 0.65625,
"grad_norm": 5.555714130401611,
"learning_rate": 6.559874162013267e-05,
"loss": 3.9993,
"step": 63
},
{
"epoch": 0.6666666666666666,
"grad_norm": 5.457334995269775,
"learning_rate": 6.508705433894149e-05,
"loss": 3.937,
"step": 64
},
{
"epoch": 0.6770833333333334,
"grad_norm": 5.703939437866211,
"learning_rate": 6.456850850758673e-05,
"loss": 3.7872,
"step": 65
},
{
"epoch": 0.6875,
"grad_norm": 6.1131978034973145,
"learning_rate": 6.404324589132101e-05,
"loss": 3.8418,
"step": 66
},
{
"epoch": 0.6979166666666666,
"grad_norm": 6.223927021026611,
"learning_rate": 6.351141009169893e-05,
"loss": 3.8756,
"step": 67
},
{
"epoch": 0.7083333333333334,
"grad_norm": 6.508042812347412,
"learning_rate": 6.297314650731775e-05,
"loss": 4.7346,
"step": 68
},
{
"epoch": 0.71875,
"grad_norm": 7.03975772857666,
"learning_rate": 6.242860229406692e-05,
"loss": 5.1848,
"step": 69
},
{
"epoch": 0.7291666666666666,
"grad_norm": 3.7895100116729736,
"learning_rate": 6.18779263248971e-05,
"loss": 4.2408,
"step": 70
},
{
"epoch": 0.7395833333333334,
"grad_norm": 4.001533031463623,
"learning_rate": 6.132126914911976e-05,
"loss": 4.2736,
"step": 71
},
{
"epoch": 0.75,
"grad_norm": 3.717928409576416,
"learning_rate": 6.075878295124861e-05,
"loss": 4.2474,
"step": 72
},
{
"epoch": 0.7604166666666666,
"grad_norm": 3.8135247230529785,
"learning_rate": 6.019062150939376e-05,
"loss": 4.1913,
"step": 73
},
{
"epoch": 0.7708333333333334,
"grad_norm": 3.9014365673065186,
"learning_rate": 5.9616940153220336e-05,
"loss": 4.0806,
"step": 74
},
{
"epoch": 0.78125,
"grad_norm": 4.113763332366943,
"learning_rate": 5.903789572148295e-05,
"loss": 4.1414,
"step": 75
},
{
"epoch": 0.7916666666666666,
"grad_norm": 4.431257247924805,
"learning_rate": 5.845364651914752e-05,
"loss": 3.9735,
"step": 76
},
{
"epoch": 0.8020833333333334,
"grad_norm": 4.451569080352783,
"learning_rate": 5.786435227411227e-05,
"loss": 3.9796,
"step": 77
},
{
"epoch": 0.8125,
"grad_norm": 4.729064464569092,
"learning_rate": 5.727017409353971e-05,
"loss": 4.0263,
"step": 78
},
{
"epoch": 0.8229166666666666,
"grad_norm": 4.848520278930664,
"learning_rate": 5.667127441981162e-05,
"loss": 4.0399,
"step": 79
},
{
"epoch": 0.8333333333333334,
"grad_norm": 5.127857208251953,
"learning_rate": 5.606781698611879e-05,
"loss": 4.1163,
"step": 80
},
{
"epoch": 0.84375,
"grad_norm": 4.99605655670166,
"learning_rate": 5.5459966771698096e-05,
"loss": 3.955,
"step": 81
},
{
"epoch": 0.8541666666666666,
"grad_norm": 5.035864353179932,
"learning_rate": 5.4847889956728834e-05,
"loss": 4.1572,
"step": 82
},
{
"epoch": 0.8645833333333334,
"grad_norm": 5.026290416717529,
"learning_rate": 5.423175387690067e-05,
"loss": 4.1904,
"step": 83
},
{
"epoch": 0.875,
"grad_norm": 4.772809982299805,
"learning_rate": 5.361172697766573e-05,
"loss": 3.8289,
"step": 84
},
{
"epoch": 0.8854166666666666,
"grad_norm": 4.927221775054932,
"learning_rate": 5.298797876818735e-05,
"loss": 4.0878,
"step": 85
},
{
"epoch": 0.8958333333333334,
"grad_norm": 4.890384197235107,
"learning_rate": 5.23606797749979e-05,
"loss": 3.7772,
"step": 86
},
{
"epoch": 0.90625,
"grad_norm": 5.172473907470703,
"learning_rate": 5.17300014953786e-05,
"loss": 3.7615,
"step": 87
},
{
"epoch": 0.9166666666666666,
"grad_norm": 5.2450103759765625,
"learning_rate": 5.109611635047379e-05,
"loss": 3.7306,
"step": 88
},
{
"epoch": 0.9270833333333334,
"grad_norm": 5.1563496589660645,
"learning_rate": 5.04591976381528e-05,
"loss": 3.9229,
"step": 89
},
{
"epoch": 0.9375,
"grad_norm": 5.917119026184082,
"learning_rate": 4.981941948563197e-05,
"loss": 3.5887,
"step": 90
},
{
"epoch": 0.9479166666666666,
"grad_norm": 5.987504482269287,
"learning_rate": 4.9176956801870065e-05,
"loss": 4.0726,
"step": 91
},
{
"epoch": 0.9583333333333334,
"grad_norm": 7.82609748840332,
"learning_rate": 4.853198522974988e-05,
"loss": 5.3798,
"step": 92
},
{
"epoch": 0.96875,
"grad_norm": 4.269325256347656,
"learning_rate": 4.788468109805921e-05,
"loss": 4.1387,
"step": 93
},
{
"epoch": 0.9791666666666666,
"grad_norm": 5.522583961486816,
"learning_rate": 4.7235221373284407e-05,
"loss": 4.219,
"step": 94
},
{
"epoch": 0.9895833333333334,
"grad_norm": 5.209097385406494,
"learning_rate": 4.658378361122936e-05,
"loss": 3.9444,
"step": 95
},
{
"epoch": 1.0,
"grad_norm": 9.663165092468262,
"learning_rate": 4.593054590847368e-05,
"loss": 4.3505,
"step": 96
},
{
"epoch": 1.0104166666666667,
"grad_norm": 2.879049062728882,
"learning_rate": 4.5275686853682765e-05,
"loss": 3.711,
"step": 97
},
{
"epoch": 1.0208333333333333,
"grad_norm": 3.294038772583008,
"learning_rate": 4.4619385478783456e-05,
"loss": 3.5335,
"step": 98
},
{
"epoch": 1.03125,
"grad_norm": 3.3614354133605957,
"learning_rate": 4.396182121001852e-05,
"loss": 3.2872,
"step": 99
},
{
"epoch": 1.0416666666666667,
"grad_norm": 3.3639588356018066,
"learning_rate": 4.33031738188933e-05,
"loss": 3.3324,
"step": 100
},
{
"epoch": 1.0416666666666667,
"eval_loss": 1.0018478631973267,
"eval_runtime": 12.6079,
"eval_samples_per_second": 12.849,
"eval_steps_per_second": 3.252,
"step": 100
},
{
"epoch": 1.0520833333333333,
"grad_norm": 3.5082290172576904,
"learning_rate": 4.264362337302798e-05,
"loss": 3.0991,
"step": 101
},
{
"epoch": 1.0625,
"grad_norm": 3.7788312435150146,
"learning_rate": 4.1983350186928894e-05,
"loss": 3.0096,
"step": 102
},
{
"epoch": 1.0729166666666667,
"grad_norm": 4.188305377960205,
"learning_rate": 4.132253477269233e-05,
"loss": 3.0371,
"step": 103
},
{
"epoch": 1.0833333333333333,
"grad_norm": 4.451459884643555,
"learning_rate": 4.0661357790654345e-05,
"loss": 3.041,
"step": 104
},
{
"epoch": 1.09375,
"grad_norm": 4.413529396057129,
"learning_rate": 4e-05,
"loss": 2.9031,
"step": 105
},
{
"epoch": 1.1041666666666667,
"grad_norm": 5.019748210906982,
"learning_rate": 3.933864220934566e-05,
"loss": 2.8697,
"step": 106
},
{
"epoch": 1.1145833333333333,
"grad_norm": 5.009162902832031,
"learning_rate": 3.8677465227307676e-05,
"loss": 2.8651,
"step": 107
},
{
"epoch": 1.125,
"grad_norm": 5.4386820793151855,
"learning_rate": 3.8016649813071106e-05,
"loss": 2.9577,
"step": 108
},
{
"epoch": 1.1354166666666667,
"grad_norm": 5.88184118270874,
"learning_rate": 3.735637662697203e-05,
"loss": 3.3029,
"step": 109
},
{
"epoch": 1.1458333333333333,
"grad_norm": 5.3596906661987305,
"learning_rate": 3.669682618110671e-05,
"loss": 3.0783,
"step": 110
},
{
"epoch": 1.15625,
"grad_norm": 5.149938583374023,
"learning_rate": 3.6038178789981494e-05,
"loss": 2.7694,
"step": 111
},
{
"epoch": 1.1666666666666667,
"grad_norm": 5.048161029815674,
"learning_rate": 3.538061452121656e-05,
"loss": 2.8497,
"step": 112
},
{
"epoch": 1.1770833333333333,
"grad_norm": 5.232293605804443,
"learning_rate": 3.472431314631724e-05,
"loss": 2.9538,
"step": 113
},
{
"epoch": 1.1875,
"grad_norm": 4.9098005294799805,
"learning_rate": 3.406945409152632e-05,
"loss": 2.6565,
"step": 114
},
{
"epoch": 1.1979166666666667,
"grad_norm": 5.082328796386719,
"learning_rate": 3.341621638877064e-05,
"loss": 2.7733,
"step": 115
},
{
"epoch": 1.2083333333333333,
"grad_norm": 5.124711513519287,
"learning_rate": 3.276477862671562e-05,
"loss": 2.8063,
"step": 116
},
{
"epoch": 1.21875,
"grad_norm": 5.474506855010986,
"learning_rate": 3.21153189019408e-05,
"loss": 2.778,
"step": 117
},
{
"epoch": 1.2291666666666667,
"grad_norm": 5.957343101501465,
"learning_rate": 3.146801477025013e-05,
"loss": 2.8683,
"step": 118
},
{
"epoch": 1.2395833333333333,
"grad_norm": 7.193364143371582,
"learning_rate": 3.082304319812994e-05,
"loss": 3.2624,
"step": 119
},
{
"epoch": 1.25,
"grad_norm": 5.49289608001709,
"learning_rate": 3.0180580514368037e-05,
"loss": 3.7842,
"step": 120
},
{
"epoch": 1.2604166666666667,
"grad_norm": 4.945963382720947,
"learning_rate": 2.9540802361847212e-05,
"loss": 3.5527,
"step": 121
},
{
"epoch": 1.2708333333333333,
"grad_norm": 4.916148662567139,
"learning_rate": 2.890388364952623e-05,
"loss": 3.3904,
"step": 122
},
{
"epoch": 1.28125,
"grad_norm": 4.310980319976807,
"learning_rate": 2.8269998504621416e-05,
"loss": 3.1866,
"step": 123
},
{
"epoch": 1.2916666666666667,
"grad_norm": 4.39262056350708,
"learning_rate": 2.7639320225002108e-05,
"loss": 3.2396,
"step": 124
},
{
"epoch": 1.3020833333333333,
"grad_norm": 3.9887611865997314,
"learning_rate": 2.7012021231812666e-05,
"loss": 3.0874,
"step": 125
},
{
"epoch": 1.3125,
"grad_norm": 4.261237621307373,
"learning_rate": 2.638827302233428e-05,
"loss": 2.9762,
"step": 126
},
{
"epoch": 1.3229166666666667,
"grad_norm": 4.186473369598389,
"learning_rate": 2.576824612309934e-05,
"loss": 2.9858,
"step": 127
},
{
"epoch": 1.3333333333333333,
"grad_norm": 4.133448123931885,
"learning_rate": 2.5152110043271166e-05,
"loss": 2.855,
"step": 128
},
{
"epoch": 1.34375,
"grad_norm": 4.298431873321533,
"learning_rate": 2.454003322830192e-05,
"loss": 2.8198,
"step": 129
},
{
"epoch": 1.3541666666666667,
"grad_norm": 4.645005226135254,
"learning_rate": 2.393218301388123e-05,
"loss": 2.8216,
"step": 130
},
{
"epoch": 1.3645833333333333,
"grad_norm": 4.73978853225708,
"learning_rate": 2.3328725580188395e-05,
"loss": 2.8812,
"step": 131
},
{
"epoch": 1.375,
"grad_norm": 4.700712203979492,
"learning_rate": 2.272982590646029e-05,
"loss": 2.9739,
"step": 132
},
{
"epoch": 1.3854166666666667,
"grad_norm": 5.159914016723633,
"learning_rate": 2.2135647725887744e-05,
"loss": 3.1184,
"step": 133
},
{
"epoch": 1.3958333333333333,
"grad_norm": 4.859000205993652,
"learning_rate": 2.1546353480852495e-05,
"loss": 2.7262,
"step": 134
},
{
"epoch": 1.40625,
"grad_norm": 5.152019023895264,
"learning_rate": 2.096210427851706e-05,
"loss": 2.9045,
"step": 135
},
{
"epoch": 1.4166666666666667,
"grad_norm": 5.160429954528809,
"learning_rate": 2.038305984677969e-05,
"loss": 2.7112,
"step": 136
},
{
"epoch": 1.4270833333333333,
"grad_norm": 5.2588791847229,
"learning_rate": 1.9809378490606264e-05,
"loss": 2.6612,
"step": 137
},
{
"epoch": 1.4375,
"grad_norm": 5.2507710456848145,
"learning_rate": 1.9241217048751406e-05,
"loss": 2.6327,
"step": 138
},
{
"epoch": 1.4479166666666667,
"grad_norm": 5.473627090454102,
"learning_rate": 1.867873085088026e-05,
"loss": 2.7342,
"step": 139
},
{
"epoch": 1.4583333333333333,
"grad_norm": 5.5412726402282715,
"learning_rate": 1.8122073675102935e-05,
"loss": 2.7053,
"step": 140
},
{
"epoch": 1.46875,
"grad_norm": 5.873712062835693,
"learning_rate": 1.75713977059331e-05,
"loss": 2.973,
"step": 141
},
{
"epoch": 1.4791666666666667,
"grad_norm": 8.18358039855957,
"learning_rate": 1.702685349268226e-05,
"loss": 3.1285,
"step": 142
},
{
"epoch": 1.4895833333333333,
"grad_norm": 3.7975542545318604,
"learning_rate": 1.648858990830108e-05,
"loss": 3.6022,
"step": 143
},
{
"epoch": 1.5,
"grad_norm": 3.8950040340423584,
"learning_rate": 1.5956754108678996e-05,
"loss": 3.454,
"step": 144
},
{
"epoch": 1.5104166666666665,
"grad_norm": 3.99422550201416,
"learning_rate": 1.5431491492413288e-05,
"loss": 3.1653,
"step": 145
},
{
"epoch": 1.5208333333333335,
"grad_norm": 4.071638584136963,
"learning_rate": 1.491294566105852e-05,
"loss": 3.2732,
"step": 146
},
{
"epoch": 1.53125,
"grad_norm": 3.93701434135437,
"learning_rate": 1.4401258379867335e-05,
"loss": 3.0739,
"step": 147
},
{
"epoch": 1.5416666666666665,
"grad_norm": 4.332589149475098,
"learning_rate": 1.3896569539033253e-05,
"loss": 3.2435,
"step": 148
},
{
"epoch": 1.5520833333333335,
"grad_norm": 4.413052082061768,
"learning_rate": 1.3399017115446067e-05,
"loss": 3.0764,
"step": 149
},
{
"epoch": 1.5625,
"grad_norm": 4.714024066925049,
"learning_rate": 1.2908737134970367e-05,
"loss": 2.964,
"step": 150
},
{
"epoch": 1.5625,
"eval_loss": 0.9886458516120911,
"eval_runtime": 12.629,
"eval_samples_per_second": 12.828,
"eval_steps_per_second": 3.246,
"step": 150
}
],
"logging_steps": 1,
"max_steps": 200,
"num_input_tokens_seen": 0,
"num_train_epochs": 3,
"save_steps": 50,
"stateful_callbacks": {
"EarlyStoppingCallback": {
"args": {
"early_stopping_patience": 4,
"early_stopping_threshold": 0.0
},
"attributes": {
"early_stopping_patience_counter": 0
}
},
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 2.172433852394373e+17,
"train_batch_size": 8,
"trial_name": null,
"trial_params": null
}