clear_samples_class_mlpT_clear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp (Operator)
Name
clear_samples_class_mlpT_clear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp — Löschen aller Trainingsdaten eines mehrschichtigen Perzeptrons.
Signatur
Herror T_clear_samples_class_mlp(const Htuple MLPHandle)
def clear_samples_class_mlp(mlphandle: MaybeSequence[HHandle]) -> None
Beschreibung
clear_samples_class_mlpclear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp löscht alle mit
add_sample_class_mlpadd_sample_class_mlpAddSampleClassMlpAddSampleClassMlpAddSampleClassMlpadd_sample_class_mlp oder read_samples_class_mlpread_samples_class_mlpReadSamplesClassMlpReadSamplesClassMlpReadSamplesClassMlpread_samples_class_mlp zu
dem mehrschichtigen Perzeptron (MLP) MLPHandleMLPHandleMLPHandleMLPHandleMLPHandlemlphandle
hinzugefügten Trainingsmuster. Eine Verwendung von
clear_samples_class_mlpclear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp ist nur dann sinnvoll, wenn das MLP
in demselben Prozess trainiert wird, in dem das MLP auch zur
Evaluierung mit evaluate_class_mlpevaluate_class_mlpEvaluateClassMlpEvaluateClassMlpEvaluateClassMlpevaluate_class_mlp oder zur Klassifikation
mit classify_class_mlpclassify_class_mlpClassifyClassMlpClassifyClassMlpClassifyClassMlpclassify_class_mlp verwendet wird. In diesem Fall kann
der durch die Trainingsmuster belegte Speicher mit
clear_samples_class_mlpclear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp wieder freigegeben werden, und somit
Speicherplatz gespart werden. In der üblichen Verwendungsart, in
der das MLP offline trainiert wird und mit write_class_mlpwrite_class_mlpWriteClassMlpWriteClassMlpWriteClassMlpwrite_class_mlp
gespeichert wird, ist die Verwendung von
clear_samples_class_mlpclear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp normalerweise überflüssig, da
write_class_mlpwrite_class_mlpWriteClassMlpWriteClassMlpWriteClassMlpwrite_class_mlp die Trainingsmuster nicht abspeichert, und
somit im Online-Prozess, der das MLP mit read_class_mlpread_class_mlpReadClassMlpReadClassMlpReadClassMlpread_class_mlp
einliest, auch kein Speicher für die Trainingsmuster benötigt
wird.
Ausführungsinformationen
- Multithreading-Typ: reentrant (läuft parallel zu nicht-exklusiven Operatoren).
- Multithreading-Bereich: global (kann von jedem Thread aufgerufen werden).
- Wird ohne Parallelisierung verarbeitet.
Dieser Operator modifiziert den Zustand des folgenden Eingabeparameters:
Während der Ausführung dieses Operators muss der Zugriff auf den Wert dieses Parameters synchronisiert werden, wenn er über mehrere Threads hinweg verwendet wird.
Parameter
MLPHandleMLPHandleMLPHandleMLPHandleMLPHandlemlphandle (input_control, Zustand wird modifiziert) class_mlp(-array) → HClassMlp, HTupleMaybeSequence[HHandle]HTupleHtuple (handle) (IntPtr) (HHandle) (handle)
Handle des MLP.
Ergebnis
Sind die Parameterwerte korrekt, dann liefert
clear_samples_class_mlpclear_samples_class_mlpClearSamplesClassMlpClearSamplesClassMlpClearSamplesClassMlpclear_samples_class_mlp den Wert TRUE. Gegebenenfalls wird
eine Fehlerbehandlung durchgeführt.
Vorgänger
train_class_mlptrain_class_mlpTrainClassMlpTrainClassMlpTrainClassMlptrain_class_mlp,
write_samples_class_mlpwrite_samples_class_mlpWriteSamplesClassMlpWriteSamplesClassMlpWriteSamplesClassMlpwrite_samples_class_mlp
Siehe auch
create_class_mlpcreate_class_mlpCreateClassMlpCreateClassMlpCreateClassMlpcreate_class_mlp,
clear_class_mlpclear_class_mlpClearClassMlpClearClassMlpClearClassMlpclear_class_mlp,
add_sample_class_mlpadd_sample_class_mlpAddSampleClassMlpAddSampleClassMlpAddSampleClassMlpadd_sample_class_mlp,
read_samples_class_mlpread_samples_class_mlpReadSamplesClassMlpReadSamplesClassMlpReadSamplesClassMlpread_samples_class_mlp
Modul
Foundation