Glossary ng mga terminong dapat mong malaman tungkol sa AI

Huling pag-update: 16/09/2025
May-akda: Isaac
  • Mga pangunahing pundasyon: mga uri ng pag-aaral, mga neural network at mga sukatan upang suriin ang mga modelo.
  • Wika, Pananaw at Pagsasalita: LLM, NLG, OCR, Speech Recognition at Praktikal na Aplikasyon
  • Etika at kalidad: bias, XAI, guni-guni, at mahusay na kagawian na may data at pagpapatunay.

Glossary ng mga termino ng artificial intelligence

La artipisyal na katalinuhan Ito ay kahit saan at lumalaki sa isang nakakahilo na bilis, na maaaring maging parehong kapana-panabik at napakalaki. Upang matulungan kang mahanap ang iyong paraan nang hindi naliligaw sa mga acronym at jargon, naghanda kami ng isang madaling gamiting glossary na pinagsasama-sama malinaw na kahulugan at kapaki-pakinabang na mga halimbawa sa pinakamahahalagang termino na nagmamarka sa kurso ng IA.

Pinagsasama-sama at muling binibigyang-kahulugan ng nilalamang ito, na may didactic na diskarte, ang mga mahahalagang elemento ng iba't ibang mapagkukunan ng sanggunian. Ang layunin ay bigyan ka ng matibay na pundasyon na magbibigay-daan sa iyo maunawaan ang mga konsepto, tuklasin ang mga pagkakataon, at matalinong gumamit ng AI sa iyong personal o propesyonal na mga proyekto.

Ano ang AI at bakit ito mahalaga

Mga Pangunahing Konsepto ng AI

Ang artificial intelligence (AI) ay ang disiplina na naglalayong lumikha ng mga system na may kakayahang magsagawa ng mga gawain na karaniwang nangangailangan ng katalinuhan ng tao, tulad ng matuto, mangatuwiran, madama at gumawa ng mga desisyonUmaasa ang AI sa data, algorithm, at computing power para malutas ang malalaking problema.

Mayroong iba't ibang mga antas at diskarte: mula sa makitid o mahinang AI, dalubhasa sa mga partikular na gawain, hanggang sa ideya ng pangkalahatan o malakas na AI (GAI), na may mga kakayahang nagbibigay-malay na maihahambing sa mga tao. Mayroon ding usapan tungkol sa reaktibong AI, limitadong memorya ng AI, hybrid AI, o kahit na superintelligence bilang isang hypothetical na senaryo.

Mga modelo, algorithm at uri ng pag-aaral

Ang modelo ay isang representasyong matematikal na sinanay upang hulaan, pag-uri-uriin, o pagbuo ng mga resulta. Ito ay binuo gamit ang data at nakatutok gamit ang mga algorithm na tumutukoy kung paano ito natututo. Sa AI, ang mga paradigma tulad ng pinangangasiwaan, hindi pinangangasiwaan, at pampalakas na pag-aaral, bilang karagdagan sa mga variant tulad ng multitasking o transfer learning.

Pinangangasiwaang pag-aaral: Ang modelo ay nagsasanay na may mga naka-label na halimbawa upang matutunan kung paano hulaan ang tamang mga output. Ito ang karaniwang diskarte para sa pag-uuri (spam/non-spam) o regression (pagpepresyo). Unsupervised learning: nagbubukas ng mga nakatagong istruktura gaya ng mga cluster na walang naunang label, na kapaki-pakinabang para sa segmentasyon at pagtuklas ng anomalyaReinforcement learning: natututo ang isang ahente mga gantimpala at parusa habang nakikipag-ugnayan sa isang kapaligiran (robotics, laro, kontrol).

Ang iba pang pangunahing konsepto na madalas mong makikita ay zero-shot na pag-aaral, kung saan ang sistema ay nagsa-generalize sa mga konsepto nang hindi nakakakita ng mga direktang halimbawa, at pretraining, ang yugto kung saan natututo ang isang modelo ng mga pangkalahatang pattern bago magpakadalubhasa sa fine-tuning. Karaniwan din ang pag-tune ng pagtuturo upang matiyak na sumusunod ang mga modelo likas na pahiwatig ng wika, at ang muling paggamit ng mga kakayahan sa pamamagitan ng paglipat ng pag-aaral.

Mga neural network, malalim na pag-aaral at mga arkitektura

ang artipisyal na mga neural network gayahin (sa kanilang sariling paraan) ang pagproseso ng utak sa pamamagitan ng mga layer ng konektadong mga neuron. malalim na pag-aaral gumagamit ng malalalim na network upang kunin ang mga hierarchical na representasyon, na may mga cutting-edge na aplikasyon sa paningin, pananalita, at wika.

Ilang nauugnay na arkitektura at diskarte: RNNs (recurrent networks) para sa mga sequence; Mga GAN (generative adversarial network) na may nakikipagkumpitensyang generator at discriminator; self-organizing maps (SOMs) para sa bawasan ang dimensionality habang pinapanatili ang topology; at Mga Transformer, ang batayan ng malalaking modelo ng wika (LLM), salamat sa sariling pansin at parallel sequence processing.

Ang pag-optimize ay ginagabayan ng mga function ng pagkawala (hal., cross entropy sa pag-uuri) at mga algorithm na nakabatay sa gradient. Ang mahusay na pagsasanay ay nangangailangan ng pag-tune ng mga hyperparameter (rate ng pagkatuto, laki ng layer), paggamit ng regularization upang maiwasan ang overfitting, at paglalapat ng cross-validation upang masuri ang kakayahang paglalahat.

Kasama sa mga karaniwang sukatan at diagnostic ang katumpakan, recall, ROC curve, at AUC, pati na rin ang pagsuri para sa underlearning (modelo masyadong simple) o overfitting (modelo na kabisado). Para sa mga kritikal na gawain, ipinapayong tantiyahin ang kawalan ng katiyakan ng mga hula para makagawa ng mas mabuting desisyon.

Data, mga dataset, at paghahanda

Ang bawat modelo ay pinapakain ng data. Ang dataset ay isang organisadong hanay ng mga halimbawa para sa pagsasanay, pagpapatunay, at pagsubok. Minsan katrabaho namin Malaking Data, na nagmumula sa maraming mapagkukunan (mga sensor, transaksyon, social network), na nangangailangan ng mga nasusukat na tool at arkitektura.

Ang kalidad ng dataset ay mahalaga. Ang annotation ng data ay nagdaragdag ng mga label o paglalarawan upang matutunan ng mga algorithm na kilalanin ang mga bagay, aksyon, o konsepto. Ang feature engineering ay nagbabago at lumilikha ng mga variable na nagpapahusay sa kakayahang manghula; Sa text, ang tokenization at vectorization ay nagko-convert ng mga salita sa mga numerical na representasyon.

  Elon Musk upang ilunsad ang AI-powered video game studio

Karaniwang i-orkestrate ang lifecycle gamit ang pipeline na sumasaklaw sa pag-ingest, paglilinis, pag-label, paghati (pagsasanay/pag-validate/pagsubok), pagsasanay, pagsusuri, at pag-deploy. Pinapadali ito ng mga frameworks tulad ng TensorFlow o open source ecosystem (hal., Hugging Face). ang pagbuo at pamamahagi ng mga modelo.

Natural na pagpoproseso at pagbuo ng wika

Ang natural language processing (NLP) ay nagbibigay-daan sa mga makina na maunawaan at makabuo ng wika ng tao. Ang mga karaniwang gawain ay kinabibilangan ng semantic analysis, pagsusuri ng damdamin, pagsasalin ng makina, pagkuha ng impormasyon, pagkilala sa pagsasalita at synthesis.

Ang natural language generation (NLG) ay gumagawa ng naiintindihan na teksto o pananalita mula sa data. Mga malalaking modelo ng wika (LLM) tulad ng GPT-3 at GPT-4, na nasanay sa napakalaking corpora, mahusay sa pagsulat, pagbubuod, pagsasalin, at diyalogo. Chat GPT pinasikat ang interface ng pakikipag-usap; iba pang nauugnay na mga pag-unlad ay kinabibilangan ng Gemini (Google, ebolusyon ng Bard) at Claude (Anthropic).

Sa paningin at pagkamalikhain, ang DALL·E ay bumubuo ng mga larawan mula sa teksto, at ang mga GAN ay gumagawa ng makatotohanang sintetikong nilalaman, gaya ng ipinaliwanag ng tagapangasiwa ng mga sintetikong katotohananSa RAG (Retrieval-Augmented Generation), ang mga LLM ay pinagsama-sama sa mga base ng kaalaman para sa mga sagot na mas may kaalaman. OpenAI ay isa sa mga pinakanakikitang aktor, habang ang mga komunidad tulad ng Hugging Face ay nagpo-promote ng mga bukas na modelo at tool para sa eksperimento at deployment.

Computer vision, boses at iba pang pandama

Ang computer vision ay nagtuturo sa mga system na bigyang-kahulugan ang mga larawan at video: pagkilala sa imahe, pagtuklas ng bagay, semantic segmentation, mga diskarte para sa alisin ang background sa iyong mga larawan, at mga pang-industriyang aplikasyon tulad ng inspeksyon o autonomous na pagmamaneho. Binabago ng OCR (optical character recognition) ang naka-print o sulat-kamay na teksto sa nae-edit na digital na teksto.

Sa audio, ang speech recognition ay nagko-convert ng pagsasalita sa text (mga katulong, transkripsyon), habang ang text-to-speech ay nag-synthesize ng mga natural na pananalita para sa accessibility o mga katulong. Sa kabilang banda, boses sa text pinapabilis ang pagkuha ng impormasyon sa real time.

Higit pa sa mga pandama, isinasama ng robotics ang AI upang madama at kumilos, mula sa robots pang-industriya na aplikasyon sa mga aplikasyon sa domestic at pangangalaga. Gamit ang Internet ng mga Bagay (IoT), milyun-milyong nakakonektang device ang nangongolekta ng data at pinapagana ang predictive maintenance at matalinong automation. Ang virtual katotohanan (VR) ay nag-aalok ng mga nakaka-engganyong kapaligiran na may AI para sa pagsasanay, simulation o entertainment.

Mga sistema, ahente at automation

Nagbibigay-daan ang mga chatbot at AI sa pakikipag-usap sa mga natural na diyalogo sa pamamagitan ng text o boses upang malutas ang mga tanong, magrekomenda, o magsagawa ng mga aksyon. Pinagsasama ng isang mahusay na chatbot ang pag-unawa sa wika, pamamahala ng konteksto at pag-access sa mga system o mga database.

Gumagamit ang robotic process automation (RPA) ng mga software robot na nakikipag-ugnayan sa mga application para sa mga paulit-ulit na gawain (pagpuno ng mga form, paglipat ng data), pagpapalaya ng oras at pagbabawas ng mga error. Ang mga sistemang nakabatay sa panuntunan ay sumusunod sa tahasang lohika, habang ang mga sistemang nakabatay sa kaalaman (KBS) ay nag-iimbak ng mga panuntunan at katotohanan mag-alok ng ekspertong gabay.

Ang mga konsepto tulad ng "adapter" ay lumilitaw din sa mga modelo: magaan na mga module na nakakabit sa isang pre-trained na modelo upang maging dalubhasa ito nang hindi muling sinasanay ang lahat, nagtitipid oras at mapagkukunanAt sa pagpaplano, ang mga algorithm sa paghahanap ay bumabagtas sa mga espasyo ng solusyon upang makahanap ng pinakamainam na mga sagot.

Mga sukatan, pagsusuri at magagandang kasanayan

Ang pagsasanay sa isang modelo ay hindi sapat: kailangan mong suriin ito. Para sa pag-uuri, bilang karagdagan sa katumpakan at paggunita, nakakatulong na tingnan ang F1, AUC-ROC, at mga confusion matrice upang maunawaan ang modelo. karaniwang mga pagkakamali (mga maling positibo/negatibo). Sa regression, MAE/MSE/RMSE ang ginagamit.

Nakakatulong ang cross-validation na tantyahin ang aktwal na performance. Pinipigilan ng regularization (L1/L2, dropout) ang overfitting. Ang mahusay na hyperparameter tuning ay lubos na nagpapabuti sa pagganap nang hindi binabago ang arkitektura. Laging bantayan ang data drift sa produksyon at gumagawa ng mga reproducible pipeline.

Sa mga kumplikadong gawain, ang pag-prompt ay susi: kung paano natin hihilingin sa isang LLM ang isang bagay ay nagbabago sa kinalabasan. Maaaring mapabuti ng reprompting ang resulta. kalinawan at katotohananPara sa mga sensitibong domain, binabawasan ng RAG at mga na-verify na mapagkukunan ang mga panganib.

Etika, bias, seguridad at kakayahang maipaliwanag

Tinutugunan ng etikal na AI ang pagiging patas, transparency, pananagutan, at paggalang sa mga karapatan. Ang algorithm na bias ay lumitaw kapag ang data o mga proseso ay gumagawa hindi patas na resulta para sa ilang grupo. Ang pagpapagaan ng bias ay nangangailangan ng pagkakaiba-iba ng data, mga pag-audit, at mga sukatan ng equity.

Ang Explainability (XAI) ay naglalayong maunawaan ang dahilan ng isang desisyon. Ang mga modelong "Black box" ay nagpapalubha ng interpretasyon; nakakatulong ang mga post-hoc technique at intrinsically interpretable na mga modelo. makakuha ng kumpiyansa, lalo na sa mga regulated na lugar (kalusugan, pananalapi, kadaliang kumilos).

  ChatGPT sa Mac! Alamin kung paano ikonekta ang AI sa iyong mga paboritong app

Ang isa pang panganib ay ang mga guni-guni: mga modelo na bumubuo ng makatotohanan ngunit maling impormasyon. Ang pagbawas sa panganib na ito ay nagsasangkot ng mas mahusay na pagsasanay, mas tumpak na mga senyas, at pagpapatunay sa panlabas na mapagkukunan at malinaw na mga limitasyon ng paggamit.

Mga tool, wika at ecosystem

Bilang karagdagan sa mga balangkas, kasama sa ecosystem ang mga makasaysayang wika at konsepto tulad ng IPL (Information Processing Language), isang pioneer sa programming mataas na antas para sa pagmamanipula ng data. Sa kasalukuyan, ang mga aklatan at platform na nagpapabilis prototyping at deployment ng mga solusyon.

Ang OpenAI, Google (Gemini, dating Bard), Anthropic (Claude), at mga bukas na komunidad ay nagtutulak ng mga pagsulong sa mga generative na modelo, larawan, text, at code. Mga kasanayan ng responsableng pagsusuri at mga gabay sa pamamahala para sa pagpapatupad ng AI sa mga kumpanyang may mga garantiya.

Mga Aplikasyon na Pang-edukasyon at AI Literacy

Ang AI sa edukasyon (AIED) ay gumaganap ng mga tungkulin bilang isang matalinong tutor, isang tool sa pag-aaral, at isang tagasuporta ng patakaran. Ang AI literacy ay nagtataguyod ng pag-unawa, gamitin at suriin etikal ang teknolohiyang ito sa iba't ibang konteksto.

Sa pagtuturo, pinag-uusapan natin ang pagtuturo gamit ang AI (pagsasama nito sa mga proseso), pagtuturo para sa AI (mga kasanayan sa paggamit nito nang responsable), at pagtuturo tungkol sa AI (mga tool sa pagbuo, programming, robotics). Ang adaptive learning ay nag-aayos ng mga materyales at bilis sa bawat mag-aaral, habang Matalinong Sistema sa Pagtuturo nag-aalok ng personalized na follow-up at feedback.

Mabilisang glossary: ​​mga tuntuning dapat nasa kamay

  • Algorithm: isang hanay ng mga tuntunin at tagubilin na gumagabay kung paano matuto o magpasya. Mahuhulaang modelo: gumagamit ng mga makasaysayang pattern upang mahulaan ang mga resulta. Pag-optimize: maghanap para sa pinakamahusay na hanay ng mga parameter sa ilalim ng mga hadlang.
  • Dataset: organisadong koleksyon ng mga halimbawa para sa pagsasanay at pagsusuri. Kapos na data: mga matrice na may mayorya ng zero o walang halaga. Padaanin sa tubo: hanay ng mga hakbang mula sa raw data hanggang modelo sa produksyon.
  • Pagkawala ng function: binibilang ang error na bawasan. Mga hyperparameter: Mga setting ng pag-aaral na itinakda bago ang pagsasanay. Cross validation: pamamaraan para sa pagtatantya ng pagganap walang bias sa pamamagitan ng mga partikular na partisyon.
  • Katumpakan at paggunita: mga sukatan ng pag-uuri. ROC/AUC curve: kakayahang magdiskrimina sa pagitan ng mga klase. Overfitting/underlearning: labis o kawalan ng pagsasaayos sa data ng pagsasanay.
  • Token: pinakamababang yunit ng teksto para sa mga modelo ng wika. maagap: natural na pagtuturo ng wika upang gabayan ang output ng isang LLM. BASAHAN: kumbinasyon ng pagbawi + henerasyon para sa mga sagot na may mga mapagkukunan.
  • OCR: kino-convert ang nakalimbag/kamay na teksto sa digital. SOM: nagmamapa ng high-dimensional na data sa isang mas maliit na espasyo. Mga genetic na algorithm: optimization na inspirasyon ng ebolusyon at natural na pagpili.
  • IoT: network ng mga konektadong device na kumukuha at nagbabahagi ng data. VR: nakaka-engganyong virtual na kapaligiran, kadalasang pinapagana ng AI. KBS: mga sistemang nakabatay sa kaalaman para sa ekspertong payo.
  • Generative AI: lumilikha ng bagong nilalaman (teksto, larawan, audio, code). LLM: malalaking modelo ng wika (GPT-3, GPT-4, Gemini). Chatbot/Conversational AI: dialog interface para sa atensyon at suporta.
  • OpenAI, Gemini/Bard, Claude, DALL·E: mga sanggunian sa pakikipag-usap na AI at generative AI. Nakayakap sa Mukha: bukas na ecosystem para sa mga modelo at deployment. TensorFlow: malalim na balangkas ng pag-aaral bukas na pinagmulan.
  • Etikal na AI at XAI: mga balangkas para sa patas at maipaliwanag na mga desisyon. Bias: pagbaluktot na pumipinsala sa mga grupo. Halucination: makatotohanan ngunit maling sagot; nangangailangan karagdagang mga kontrol.
  • Machine Learning (ML): Isang sangay ng AI na nakatuon sa pagbuo ng mga algorithm na nagbibigay-daan sa mga computer na matuto mula sa data nang hindi tahasang naka-program para sa bawat gawain.
  • Malalim na Pag-aaral: Isang subfield ng ML na gumagamit ng mga multi-layered na artificial neural network para magmodelo ng mga abstraction sa mataas na antas sa data.
  • Graphics Processing Unit (GPU): Isang uri ng processor na orihinal na idinisenyo para sa pag-render ng mga graphics, ngunit ito ay nagbago sa hardware pamantayan para sa pagsasanay at pagpapatakbo ng mga modelo ng AI.
  • Tensor Processing Unit (TPU): Isang purpose-built integrated circuit (ASIC) na binuo ng Google at na-optimize para sa mga ML workload.
  • Neural Processing Unit (NPU): Isang uri ng microprocessor o coprocessor na partikular na idinisenyo para sa acceleration ng AI workloads.
  • Operations per Second (TOPS): Isang sukatan ng pagganap na sumusukat sa bilis ng isang processor, partikular ang bilang ng trilyong operasyon na maaari nitong isagawa bawat segundo.
  • Malaking Scale Language Model (LLM): Isang uri ng modelo ng AI na sinanay sa isang malawak na corpus ng text at data. Maaaring maunawaan, makabuo, at mamanipula ng mga LLM ang wika ng tao upang magsagawa ng malawak na uri ng mga gawain sa pagproseso ng natural na wika.
  • Hinuha: Ang proseso ng paggamit ng sinanay na modelo ng AI upang makagawa ng hula o makabuo ng tugon gamit ang bagong data.
  • Parameter: Ang mga panloob na halaga ng isang modelo ng AI na inaayos sa panahon ng pagsasanay.
  • Token: Isang unit ng text na maaaring iproseso ng isang LLM.
  • maagap: Ang text input na ibinigay sa isang modelo ng AI, lalo na sa isang LLM, upang gabayan ang tugon nito.
  • Halucination: Isang kababalaghan kung saan ang isang modelo ng AI, lalo na ang isang LLM, ay bumubuo ng mali o maling impormasyon na ipinapakita nito bilang katotohanan.
  • Dataset: Isang koleksyon ng structured data na ginamit upang sanayin, patunayan, at subukan ang isang modelo ng ML.
  • Entrenamiento: Ang proseso kung saan natututo ang isang modelo ng AI na magsagawa ng isang partikular na gawain mula sa data.
  • Maagap na Engineering: Ang disiplina sa pagdidisenyo at pag-optimize ng mga senyales upang makamit ang pinakamahusay na mga resulta mula sa mga LLM.
  • Pinangangasiwaang Pag-aaral: Isang uri ng ML kung saan natututo ang modelo mula sa isang naka-label na dataset, ibig sabihin, ang bawat halimbawa ay may tamang label ng sagot.
  • Unsupervised Learning: Isang uri ng ML kung saan naghahanap ang modelo ng mga pattern at istruktura sa isang walang label na dataset.
  • Reinforcement Learning: Isang uri ng ML kung saan natututo ang isang ahente ng AI na gumawa ng mga pagpapasya sa isang kapaligiran para ma-maximize ang isang pinagsama-samang reward.
  • Parameter: Ang bilang ng mga halaga na natututo at inaayos ng modelo ng AI sa panahon ng pagsasanay, na sinusukat ang "laki" at pagiging kumplikado nito.
  • Konteksto ng Modelo o Haba ng Konteksto: Ang maximum na bilang ng mga token na maaaring isaalang-alang ng isang modelo sa isang pagkakataon upang makabuo ng tugon.
  • Flops (Floating Point Operations per Second): Isang sukatan ng pagganap ng computer, lalo na kapaki-pakinabang para sa pagkalkula ng kapangyarihan sa pagpoproseso para sa pagsasanay ng mga modelo ng AI.
  • Exponential Notation (E Notation): Isang paraan ng pagpapahayag ng napakalaki o napakaliit na numero, karaniwan sa mga pagtutukoy ng hardware ng IA.
  • Arkitektura ng modelo: Ang pangkalahatang istraktura ng isang modelo ng AI, kabilang ang kung paano nakaayos at nakakonekta ang mga layer nito.
  • Mga transformer: Isang arkitektura ng neural network na gumagamit ng mekanismo ng atensyon, pangunahing sa natural na pagproseso ng wika at ang batayan ng karamihan sa mga LLM.
  • Mekanismo ng Atensyon: Isang pamamaraan sa loob ng arkitektura ng transformer na nagbibigay-daan sa modelo na tumuon sa mga pinakanauugnay na bahagi ng input text kapag bumubuo ng tugon.
  • Fine-tuning: Ang proseso ng pag-adapt ng isang malaki, pre-trained na modelo sa isang partikular na gawain o mas maliit na set ng data.
  • In-context Learning: Ang kakayahan ng isang LLM na matuto mula sa mga halimbawang ibinigay nang direkta, nang hindi nangangailangan ng pormal na pagtuturo.
  • Kadena ng Pag-iisip: Isang nakakahikayat na pamamaraan na gumagabay sa LLM na "mag-isip" nang hakbang-hakbang bago magbigay ng panghuling sagot, na nagpapahusay sa katumpakan.
  Lumalawak ang Microsoft Paint gamit ang mga bagong feature ng AI: pag-edit na abot ng lahat

Gamit ang mapa ng terminolohiya na ito, maaari ka na ngayong mag-navigate nang mas madali sa pamamagitan ng mga produkto, papel, at pag-uusap sa sektor. Ang susi ay upang pagsamahin ang mga batayan (data ng kalidad, mahusay na mga kasanayan sa pagsusuri) na may responsableng paggamit na naglalagay ng terminolohiya sa sentro. pagiging kapaki-pakinabang, transparency at epekto sa mga tao.

Ano ang Google NotebookLM-1?
Kaugnay na artikulo:
Google NotebookLM: Lahat Tungkol sa Smart Research Assistant ng Google