Atgyfnerthu Dysgu o Adborth Dynol (RLHF)

RLHF

Diffiniad

Mae Dysgu Atgyfnerthu o Adborth Dynol (RLHF) yn ddull ar gyfer alinio modelau AI â gwerthoedd dynol trwy ymgorffori barn ddynol yn y broses hyfforddi. Fe'i defnyddir yn aml i fireinio modelau iaith mawr.

Diben

Y pwrpas yw gwneud allbynnau AI yn fwy diogel, yn fwy defnyddiol, ac yn cyd-fynd â dewisiadau dynol. Mae RLHF yn gwella systemau sgwrsio trwy leihau ymatebion niweidiol, rhagfarnllyd, neu amherthnasol.

Pwysigrwydd

  • Yn darparu goruchwyliaeth ddynol mewn hyfforddiant AI.
  • Yn gwella dibynadwyedd systemau AI.
  • Llafur-ddwys oherwydd anghenion anodi dynol.
  • Yn gysylltiedig â modelu dewisiadau ac ymchwil aliniad.

Sut Mae'n Gwaith

  1. Casglu adborth dynol gan gymharu allbynnau modelau.
  2. Hyfforddi model gwobrwyo ar ddewisiadau dynol.
  3. Defnyddiwch ddysgu atgyfnerthu i fireinio'r model sylfaenol.
  4. Gwerthuso perfformiad yn erbyn nodau aliniad.
  5. Ailadroddwch gydag adborth ychwanegol.

Enghreifftiau (Y Byd Go Iawn)

  • OpenAI ChatGPT: wedi'i fireinio gyda RLHF ar gyfer ymatebion mwy diogel.
  • Deallusrwydd Artiffisial Cyfansoddiadol Anthropic: wedi'i arwain gan egwyddorion yn hytrach nag adborth uniongyrchol.
  • InstructGPT: model OpenAI cynnar yn arddangos RLHF.

Cyfeiriadau / Darllen Pellach

Dywedwch wrthym sut y gallwn helpu gyda'ch menter AI nesaf.