create_dl_layer_activation T_create_dl_layer_activation CreateDlLayerActivation CreateDlLayerActivation create_dl_layer_activation (Operator)
Name
create_dl_layer_activation T_create_dl_layer_activation CreateDlLayerActivation CreateDlLayerActivation create_dl_layer_activation — Erstellen eines Activation-Layers.
Signatur
void CreateDlLayerActivation (const HTuple& DLLayerInput , const HTuple& LayerName , const HTuple& ActivationType , const HTuple& GenParamName , const HTuple& GenParamValue , HTuple* DLLayerActivation )
HDlLayer HDlLayer ::CreateDlLayerActivation (const HString& LayerName , const HString& ActivationType , const HTuple& GenParamName , const HTuple& GenParamValue ) const
HDlLayer HDlLayer ::CreateDlLayerActivation (const HString& LayerName , const HString& ActivationType , const HString& GenParamName , const HString& GenParamValue ) const
HDlLayer HDlLayer ::CreateDlLayerActivation (const char* LayerName , const char* ActivationType , const char* GenParamName , const char* GenParamValue ) const
HDlLayer HDlLayer ::CreateDlLayerActivation (const wchar_t* LayerName , const wchar_t* ActivationType , const wchar_t* GenParamName , const wchar_t* GenParamValue ) const
(
Nur Windows)
static void HOperatorSet .CreateDlLayerActivation (HTuple DLLayerInput , HTuple layerName , HTuple activationType , HTuple genParamName , HTuple genParamValue , out HTuple DLLayerActivation )
HDlLayer HDlLayer .CreateDlLayerActivation (string layerName , string activationType , HTuple genParamName , HTuple genParamValue )
HDlLayer HDlLayer .CreateDlLayerActivation (string layerName , string activationType , string genParamName , string genParamValue )
Beschreibung
Der Operator create_dl_layer_activation create_dl_layer_activation CreateDlLayerActivation CreateDlLayerActivation create_dl_layer_activation erzeugt einen
Activation-Layer dessen Handle in DLLayerActivation DLLayerActivation DLLayerActivation DLLayerActivation dllayer_activation zurückgegeben
wird.
Der Parameter DLLayerInput DLLayerInput DLLayerInput DLLayerInput dllayer_input bestimmt den zuführenden Eingabelayer
und erwartet das Layer-Handle als Wert.
Der Parameter LayerName LayerName LayerName layerName layer_name legt einen individuellen Layernamen fest.
Es ist zu beachten, dass beim Erstellen eines Modells mit
create_dl_model create_dl_model CreateDlModel CreateDlModel create_dl_model jeder Layer des erstellten Netzes einen
eindeutigen Namen haben muss.
Der Parameter ActivationType ActivationType ActivationType activationType activation_type setzt den Typ der Aktivierung.
Jeder Aktivierungstyp definiert eine punktweise Funktion.
Unterstützte Aktivierungstypen sind:
'abs' "abs" "abs" "abs" "abs" :
Betragsfunktion:
'acos' "acos" "acos" "acos" "acos" :
Arcuscosinus-Aktivierung.
'asin' "asin" "asin" "asin" "asin" :
Arcussinus-Aktivierung.
'atan' "atan" "atan" "atan" "atan" :
Arcustangens-Aktivierung.
'ceil' "ceil" "ceil" "ceil" "ceil" :
Rundet die Eingabe nach oben zur nächsten Ganzzahl.
'celu' "celu" "celu" "celu" "celu" :
Continuously Differentiable Exponential Linear Unit (Celu) Aktivierung,
die wie folgt definiert ist:
Setzen des generischen Parameters 'alpha' "alpha" "alpha" "alpha" "alpha" legt den Wert
fest (default: 1.0). Für
verhält
die Celu sich wie eine ELU Aktivierung.
'clip' "clip" "clip" "clip" "clip" :
Begrenzt die Eingabe auf ein gegebenes Intervall:
Setzen der generischen Parameter 'min' "min" "min" "min" "min" und 'max' "max" "max" "max" "max" legt die
Werte
bzw.
fest.
'cos' "cos" "cos" "cos" "cos" :
Cosinus-Aktivierung.
'cosh' "cosh" "cosh" "cosh" "cosh" :
Hyperbolische Cosinus-Aktivierung.
'elu' "elu" "elu" "elu" "elu" :
Exponential Linear Unit (ELU) Aktivierung, die wie folgt definiert ist:
Setzen des generischen Parameters 'alpha' "alpha" "alpha" "alpha" "alpha" legt den Wert
fest (default: 1.0).
'erf' "erf" "erf" "erf" "erf" :
Gauss-Fehlerfunktion, die wie folgt definiert ist:
'exp' "exp" "exp" "exp" "exp" :
Exponentialfunktion:
'floor' "floor" "floor" "floor" "floor" :
Rundet die Eingabe nach unten zur nächsten Ganzzahl.
'gelu' "gelu" "gelu" "gelu" "gelu" :
Gaussian Error Linear Units (Gelu) Aktivierung,
die wie folgt definiert ist:
Setzen des generischen Parameters 'approximate' "approximate" "approximate" "approximate" "approximate" auf 'tanh' "tanh" "tanh" "tanh" "tanh"
führt zu einer approximierten Berechnung:
'hard_sigmoid' "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" :
HardSigmoid-Aktivierung:
Setzen der generischen Parameter 'alpha' "alpha" "alpha" "alpha" "alpha" und 'beta' "beta" "beta" "beta" "beta"
legt die Werte
(default: 0.2) und
(default: 0.5) fest.
'hard_swish' "hard_swish" "hard_swish" "hard_swish" "hard_swish" :
HardSwish-Aktivierung:
wobei für die HardSigmoid
und
.
'log' "log" "log" "log" "log" :
Natürlicher Logarithmus:
'mish' "mish" "mish" "mish" "mish" :
Mish-Aktivierung:
'neg' "neg" "neg" "neg" "neg" :
Negativwert der Eingabe:
'pow' "pow" "pow" "pow" "pow" :
Potenzfunktion:
Setzen des generischen Parameters 'exponent' "exponent" "exponent" "exponent" "exponent" legt den Wert
fest.
'reciprocal' "reciprocal" "reciprocal" "reciprocal" "reciprocal" :
Reziproke Funktion:
'relu' "relu" "relu" "relu" "relu" :
Rectified linear unit (ReLU) Aktivierung.
Durch das Setzen eines spezifischen ReLU-Parameters kann statt des
Standard ReLU ein anderer Typ spezifiziert werden:
Standard ReLU, definiert durch:
begrenzter (bounded) ReLU, definiert durch:
Setzen des generischen Parameters 'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound" führt zu einem
begrenzten ReLU und legt den Wert von
fest.
Leaky ReLU, definiert durch:
Setzen des generischen Parameters 'alpha' "alpha" "alpha" "alpha" "alpha" führt zu einem
leaky ReLU und legt den Wert
fest. Wenn zugleich der
generische Parameter 'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound" gesetzt ist, wird 'alpha' "alpha" "alpha" "alpha" "alpha"
ignoriert und eine begrenzte ReLU ausgeführt.
'round' "round" "round" "round" "round" :
Rundet die Eingabe zur nächsten Ganzzahl.
Werte mit '.5' werden zur nächsten geraden Ganzzahl gerundet, z.B.:
,
.
'sigmoid' "sigmoid" "sigmoid" "sigmoid" "sigmoid" :
Sigmoid-Aktivierung, die wie folgt definiert ist:
'sin' "sin" "sin" "sin" "sin" :
Sinus-Aktivierung.
'sinh' "sinh" "sinh" "sinh" "sinh" :
Hyperbolische Sinus-Aktivierung.
'softplus' "softplus" "softplus" "softplus" "softplus" :
Softplus-Aktivierung, die wie folgt definiert ist:
'softsign' "softsign" "softsign" "softsign" "softsign" :
Softsign-Aktivierung, die wie folgt definiert ist:
'sqrt' "sqrt" "sqrt" "sqrt" "sqrt" :
Quadratwurzel:
'swish' "swish" "swish" "swish" "swish" :
Swish-Aktivierung, die wie folgt definiert ist:
Setzen des generischen Parameters 'alpha' "alpha" "alpha" "alpha" "alpha" legt den Wert
fest (default: 1.0).
'tan' "tan" "tan" "tan" "tan" :
Tangens-Aktivierung.
'tanh' "tanh" "tanh" "tanh" "tanh" :
Tanh-Aktivierung, die wie folgt definiert ist:
'thresholded_relu' "thresholded_relu" "thresholded_relu" "thresholded_relu" "thresholded_relu" :
ReLU mit Schwellwert, die wie folgt definiert ist:
Setzen des generischen Parameters 'alpha' "alpha" "alpha" "alpha" "alpha" legt den Wert
fest (default: 1.0).
Die folgenden generischen Parameter GenParamName GenParamName GenParamName genParamName gen_param_name und die
entsprechenden Werte GenParamValue GenParamValue GenParamValue genParamValue gen_param_value werden unterstützt:
'is_inference_output' "is_inference_output" "is_inference_output" "is_inference_output" "is_inference_output" :
Bestimmt, ob apply_dl_model apply_dl_model ApplyDlModel ApplyDlModel apply_dl_model die Ausgabe dieses Layers im
Dictionary DLResultBatch DLResultBatch DLResultBatch DLResultBatch dlresult_batch zurückgibt, auch ohne den
Layer in Outputs Outputs Outputs outputs outputs anzugeben ('true' "true" "true" "true" "true" ), oder
nur falls er angegeben wird ('false' "false" "false" "false" "false" ).
Default:
'false' "false" "false" "false" "false"
'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound" ('relu' "relu" "relu" "relu" "relu" ):
Fließkommawert, der eine obere Grenze für eine ReLU angibt.
Wenn der Activation-Layer Teil eines Modells ist, das mit
create_dl_model create_dl_model CreateDlModel CreateDlModel create_dl_model erstellt wurde, kann die obere Grenze
aufgehoben werden, indem mit set_dl_model_layer_param set_dl_model_layer_param SetDlModelLayerParam SetDlModelLayerParam set_dl_model_layer_param ein
leeres Tupel für 'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound" gesetzt wird.
Default:
[]
'alpha' "alpha" "alpha" "alpha" "alpha" ('relu' "relu" "relu" "relu" "relu" , 'elu' "elu" "elu" "elu" "elu" , 'celu' "celu" "celu" "celu" "celu" ,
'thresholded_relu' "thresholded_relu" "thresholded_relu" "thresholded_relu" "thresholded_relu" , 'swish' "swish" "swish" "swish" "swish" , 'hard_sigmoid' "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" ):
Float-Wert, der den alpha Parameter von Leaky ReLU, ReLU mit Schwellwert,
ELU, Celu, Swish und HardSigmoid-Aktivierung definiert.
Restriktion:
Der Wert von 'alpha' "alpha" "alpha" "alpha" "alpha"
muss positiv oder Null sein für alle Aktivierungen außer für
ActivationType ActivationType ActivationType activationType activation_type 'thresholded_relu' "thresholded_relu" "thresholded_relu" "thresholded_relu" "thresholded_relu" .
Dieser Parameter ist inkompatibel mit 'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound"
für den ActivationType ActivationType ActivationType activationType activation_type 'relu' "relu" "relu" "relu" "relu" .
Default:
0.2 für 'hard_sigmoid' "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" , sonst 1.0
'beta' "beta" "beta" "beta" "beta" ('hard_sigmoid' "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" ):
Float-Wert, der den beta Parameter von HardSigmoid definiert.
Default:
0.5
'min' "min" "min" "min" "min" ('clip' "clip" "clip" "clip" "clip" ):
Float-Wert, der den min Parameter einer 'clip'-Aktivierung definiert.
'max' "max" "max" "max" "max" ('clip' "clip" "clip" "clip" "clip" ):
Float-Wert, der den max Parameter einer 'clip'-Aktivierung definiert.
'approximate' "approximate" "approximate" "approximate" "approximate" ('gelu' "gelu" "gelu" "gelu" "gelu" ):
Durch diesen Wert kann eine approximierte Berechnung ausgewählt werden.
Werteliste:
'tanh' "tanh" "tanh" "tanh" "tanh" , 'false' "false" "false" "false" "false"
Default:
'false' "false" "false" "false" "false"
'exponent' "exponent" "exponent" "exponent" "exponent" ('pow' "pow" "pow" "pow" "pow" ):
Float-Wert, der den exponent Parameter einer 'pow'-Aktivierung definiert.
Bestimmte Parameter von Layern, die mit create_dl_layer_activation create_dl_layer_activation CreateDlLayerActivation CreateDlLayerActivation create_dl_layer_activation
erzeugt wurden, können mit weiteren Operatoren gesetzt und abgerufen werden.
Die folgenden Tabellen geben einen Überblick, welche Parameter mit
set_dl_model_layer_param set_dl_model_layer_param SetDlModelLayerParam SetDlModelLayerParam set_dl_model_layer_param gesetzt werden können und welche mit
get_dl_model_layer_param get_dl_model_layer_param GetDlModelLayerParam GetDlModelLayerParam get_dl_model_layer_param oder get_dl_layer_param get_dl_layer_param GetDlLayerParam GetDlLayerParam get_dl_layer_param ausgelesen
werden können. Es ist zu beachten, dass die Operatoren
set_dl_model_layer_param set_dl_model_layer_param SetDlModelLayerParam SetDlModelLayerParam set_dl_model_layer_param und get_dl_model_layer_param get_dl_model_layer_param GetDlModelLayerParam GetDlModelLayerParam get_dl_model_layer_param ein
Modell benötigen, das mit create_dl_model create_dl_model CreateDlModel CreateDlModel create_dl_model erzeugt wurde.
Generische Layer-Parameter
set
get
'is_inference_output' "is_inference_output" "is_inference_output" "is_inference_output" "is_inference_output"
x
x
'num_trainable_params' "num_trainable_params" "num_trainable_params" "num_trainable_params" "num_trainable_params"
x
'alpha' "alpha" "alpha" "alpha" "alpha"
x
x
'beta' "beta" "beta" "beta" "beta"
x
x
'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound"
x
x
'min' "min" "min" "min" "min"
x
x
'max' "max" "max" "max" "max"
x
x
'approximate' "approximate" "approximate" "approximate" "approximate"
x
x
'exponent' "exponent" "exponent" "exponent" "exponent"
x
x
Ausführungsinformationen
Multithreading-Typ: reentrant (läuft parallel zu nicht-exklusiven Operatoren).
Multithreading-Bereich: global (kann von jedem Thread aufgerufen werden).
Wird ohne Parallelisierung verarbeitet.
Parameter
DLLayerInput DLLayerInput DLLayerInput DLLayerInput dllayer_input (input_control) dl_layer → HDlLayer , HTuple HHandle HTuple Htuple (handle) (IntPtr ) (HHandle ) (handle )
Zuführender Layer.
LayerName LayerName LayerName layerName layer_name (input_control) string → HTuple str HTuple Htuple (string) (string ) (HString ) (char* )
Name des Ausgabelayers.
ActivationType ActivationType ActivationType activationType activation_type (input_control) string → HTuple str HTuple Htuple (string) (string ) (HString ) (char* )
Aktivierungstyp.
Default:
'relu'
"relu"
"relu"
"relu"
"relu"
Werteliste:
'abs' "abs" "abs" "abs" "abs" , 'acos' "acos" "acos" "acos" "acos" , 'asin' "asin" "asin" "asin" "asin" , 'atan' "atan" "atan" "atan" "atan" , 'ceil' "ceil" "ceil" "ceil" "ceil" , 'celu' "celu" "celu" "celu" "celu" , 'clip' "clip" "clip" "clip" "clip" , 'cos' "cos" "cos" "cos" "cos" , 'cosh' "cosh" "cosh" "cosh" "cosh" , 'elu' "elu" "elu" "elu" "elu" , 'erf' "erf" "erf" "erf" "erf" , 'exp' "exp" "exp" "exp" "exp" , 'floor' "floor" "floor" "floor" "floor" , 'gelu' "gelu" "gelu" "gelu" "gelu" , 'hard_sigmoid' "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" "hard_sigmoid" , 'hard_swish' "hard_swish" "hard_swish" "hard_swish" "hard_swish" , 'log' "log" "log" "log" "log" , 'mish' "mish" "mish" "mish" "mish" , 'neg' "neg" "neg" "neg" "neg" , 'pow' "pow" "pow" "pow" "pow" , 'reciprocal' "reciprocal" "reciprocal" "reciprocal" "reciprocal" , 'relu' "relu" "relu" "relu" "relu" , 'round' "round" "round" "round" "round" , 'sigmoid' "sigmoid" "sigmoid" "sigmoid" "sigmoid" , 'sin' "sin" "sin" "sin" "sin" , 'sinh' "sinh" "sinh" "sinh" "sinh" , 'softplus' "softplus" "softplus" "softplus" "softplus" , 'softsign' "softsign" "softsign" "softsign" "softsign" , 'sqrt' "sqrt" "sqrt" "sqrt" "sqrt" , 'swish' "swish" "swish" "swish" "swish" , 'tan' "tan" "tan" "tan" "tan" , 'tanh' "tanh" "tanh" "tanh" "tanh" , 'thresholded_relu' "thresholded_relu" "thresholded_relu" "thresholded_relu" "thresholded_relu"
GenParamName GenParamName GenParamName genParamName gen_param_name (input_control) attribute.name(-array) → HTuple MaybeSequence[str] HTuple Htuple (string) (string ) (HString ) (char* )
Namen der generischen Eingabeparameter.
Default:
[]
Werteliste:
'alpha' "alpha" "alpha" "alpha" "alpha" , 'approximate' "approximate" "approximate" "approximate" "approximate" , 'beta' "beta" "beta" "beta" "beta" , 'exponent' "exponent" "exponent" "exponent" "exponent" , 'is_inference_output' "is_inference_output" "is_inference_output" "is_inference_output" "is_inference_output" , 'max' "max" "max" "max" "max" , 'min' "min" "min" "min" "min" , 'upper_bound' "upper_bound" "upper_bound" "upper_bound" "upper_bound"
GenParamValue GenParamValue GenParamValue genParamValue gen_param_value (input_control) attribute.value(-array) → HTuple MaybeSequence[Union[int, float, str]] HTuple Htuple (string / integer / real) (string / int / long / double) (HString / Hlong / double) (char* / Hlong / double)
Werte der generischen Eingabeparameter.
Default:
[]
Wertevorschläge:
'true' "true" "true" "true" "true" , 'false' "false" "false" "false" "false" , 'tanh' "tanh" "tanh" "tanh" "tanh"
DLLayerActivation DLLayerActivation DLLayerActivation DLLayerActivation dllayer_activation (output_control) dl_layer → HDlLayer , HTuple HHandle HTuple Htuple (handle) (IntPtr ) (HHandle ) (handle )
Activation-Layer.
Modul
Deep Learning Professional