create_dl_layer_activationT_create_dl_layer_activationCreateDlLayerActivationCreateDlLayerActivationcreate_dl_layer_activation (Operator)

Name

create_dl_layer_activationT_create_dl_layer_activationCreateDlLayerActivationCreateDlLayerActivationcreate_dl_layer_activation — Erstellen eines Activation-Layers.

Signatur

create_dl_layer_activation( : : DLLayerInput, LayerName, ActivationType, GenParamName, GenParamValue : DLLayerActivation)

Herror T_create_dl_layer_activation(const Htuple DLLayerInput, const Htuple LayerName, const Htuple ActivationType, const Htuple GenParamName, const Htuple GenParamValue, Htuple* DLLayerActivation)

void CreateDlLayerActivation(const HTuple& DLLayerInput, const HTuple& LayerName, const HTuple& ActivationType, const HTuple& GenParamName, const HTuple& GenParamValue, HTuple* DLLayerActivation)

HDlLayer HDlLayer::CreateDlLayerActivation(const HString& LayerName, const HString& ActivationType, const HTuple& GenParamName, const HTuple& GenParamValue) const

HDlLayer HDlLayer::CreateDlLayerActivation(const HString& LayerName, const HString& ActivationType, const HString& GenParamName, const HString& GenParamValue) const

HDlLayer HDlLayer::CreateDlLayerActivation(const char* LayerName, const char* ActivationType, const char* GenParamName, const char* GenParamValue) const

HDlLayer HDlLayer::CreateDlLayerActivation(const wchar_t* LayerName, const wchar_t* ActivationType, const wchar_t* GenParamName, const wchar_t* GenParamValue) const   ( Nur Windows)

static void HOperatorSet.CreateDlLayerActivation(HTuple DLLayerInput, HTuple layerName, HTuple activationType, HTuple genParamName, HTuple genParamValue, out HTuple DLLayerActivation)

HDlLayer HDlLayer.CreateDlLayerActivation(string layerName, string activationType, HTuple genParamName, HTuple genParamValue)

HDlLayer HDlLayer.CreateDlLayerActivation(string layerName, string activationType, string genParamName, string genParamValue)

def create_dl_layer_activation(dllayer_input: HHandle, layer_name: str, activation_type: str, gen_param_name: MaybeSequence[str], gen_param_value: MaybeSequence[Union[int, float, str]]) -> HHandle

Beschreibung

Der Operator create_dl_layer_activationcreate_dl_layer_activationCreateDlLayerActivationCreateDlLayerActivationcreate_dl_layer_activation erzeugt einen Activation-Layer dessen Handle in DLLayerActivationDLLayerActivationDLLayerActivationDLLayerActivationdllayer_activation zurückgegeben wird.

Der Parameter DLLayerInputDLLayerInputDLLayerInputDLLayerInputdllayer_input bestimmt den zuführenden Eingabelayer und erwartet das Layer-Handle als Wert.

Der Parameter LayerNameLayerNameLayerNamelayerNamelayer_name legt einen individuellen Layernamen fest. Es ist zu beachten, dass beim Erstellen eines Modells mit create_dl_modelcreate_dl_modelCreateDlModelCreateDlModelcreate_dl_model jeder Layer des erstellten Netzes einen eindeutigen Namen haben muss.

Der Parameter ActivationTypeActivationTypeActivationTypeactivationTypeactivation_type setzt den Typ der Aktivierung. Jeder Aktivierungstyp definiert eine punktweise Funktion. Unterstützte Aktivierungstypen sind:

'abs'"abs""abs""abs""abs":

Betragsfunktion:

'acos'"acos""acos""acos""acos":

Arcuscosinus-Aktivierung.

'asin'"asin""asin""asin""asin":

Arcussinus-Aktivierung.

'atan'"atan""atan""atan""atan":

Arcustangens-Aktivierung.

'ceil'"ceil""ceil""ceil""ceil":

Rundet die Eingabe nach oben zur nächsten Ganzzahl.

'celu'"celu""celu""celu""celu":

Continuously Differentiable Exponential Linear Unit (Celu) Aktivierung, die wie folgt definiert ist: Setzen des generischen Parameters 'alpha'"alpha""alpha""alpha""alpha" legt den Wert fest (default: 1.0). Für verhält die Celu sich wie eine ELU Aktivierung.

'clip'"clip""clip""clip""clip":

Begrenzt die Eingabe auf ein gegebenes Intervall: Setzen der generischen Parameter 'min'"min""min""min""min" und 'max'"max""max""max""max" legt die Werte bzw. fest.

'cos'"cos""cos""cos""cos":

Cosinus-Aktivierung.

'cosh'"cosh""cosh""cosh""cosh":

Hyperbolische Cosinus-Aktivierung.

'elu'"elu""elu""elu""elu":

Exponential Linear Unit (ELU) Aktivierung, die wie folgt definiert ist: Setzen des generischen Parameters 'alpha'"alpha""alpha""alpha""alpha" legt den Wert fest (default: 1.0).

'erf'"erf""erf""erf""erf":

Gauss-Fehlerfunktion, die wie folgt definiert ist:

'exp'"exp""exp""exp""exp":

Exponentialfunktion:

'floor'"floor""floor""floor""floor":

Rundet die Eingabe nach unten zur nächsten Ganzzahl.

'gelu'"gelu""gelu""gelu""gelu":

Gaussian Error Linear Units (Gelu) Aktivierung, die wie folgt definiert ist: Setzen des generischen Parameters 'approximate'"approximate""approximate""approximate""approximate" auf 'tanh'"tanh""tanh""tanh""tanh" führt zu einer approximierten Berechnung:

'hard_sigmoid'"hard_sigmoid""hard_sigmoid""hard_sigmoid""hard_sigmoid":

HardSigmoid-Aktivierung: Setzen der generischen Parameter 'alpha'"alpha""alpha""alpha""alpha" und 'beta'"beta""beta""beta""beta" legt die Werte (default: 0.2) und (default: 0.5) fest.

'hard_swish'"hard_swish""hard_swish""hard_swish""hard_swish":

HardSwish-Aktivierung: wobei für die HardSigmoid und .

'log'"log""log""log""log":

Natürlicher Logarithmus:

'mish'"mish""mish""mish""mish":

Mish-Aktivierung:

'neg'"neg""neg""neg""neg":

Negativwert der Eingabe:

'pow'"pow""pow""pow""pow":

Potenzfunktion: Setzen des generischen Parameters 'exponent'"exponent""exponent""exponent""exponent" legt den Wert fest.

'reciprocal'"reciprocal""reciprocal""reciprocal""reciprocal":

Reziproke Funktion:

'relu'"relu""relu""relu""relu":

Rectified linear unit (ReLU) Aktivierung. Durch das Setzen eines spezifischen ReLU-Parameters kann statt des Standard ReLU ein anderer Typ spezifiziert werden:

  • Standard ReLU, definiert durch:

  • begrenzter (bounded) ReLU, definiert durch: Setzen des generischen Parameters 'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" führt zu einem begrenzten ReLU und legt den Wert von fest.

  • Leaky ReLU, definiert durch: Setzen des generischen Parameters 'alpha'"alpha""alpha""alpha""alpha" führt zu einem leaky ReLU und legt den Wert fest. Wenn zugleich der generische Parameter 'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" gesetzt ist, wird 'alpha'"alpha""alpha""alpha""alpha" ignoriert und eine begrenzte ReLU ausgeführt.

'round'"round""round""round""round":

Rundet die Eingabe zur nächsten Ganzzahl. Werte mit '.5' werden zur nächsten geraden Ganzzahl gerundet, z.B.: , .

'sigmoid'"sigmoid""sigmoid""sigmoid""sigmoid":

Sigmoid-Aktivierung, die wie folgt definiert ist:

'sin'"sin""sin""sin""sin":

Sinus-Aktivierung.

'sinh'"sinh""sinh""sinh""sinh":

Hyperbolische Sinus-Aktivierung.

'softplus'"softplus""softplus""softplus""softplus":

Softplus-Aktivierung, die wie folgt definiert ist:

'softsign'"softsign""softsign""softsign""softsign":

Softsign-Aktivierung, die wie folgt definiert ist:

'sqrt'"sqrt""sqrt""sqrt""sqrt":

Quadratwurzel:

'swish'"swish""swish""swish""swish":

Swish-Aktivierung, die wie folgt definiert ist: Setzen des generischen Parameters 'alpha'"alpha""alpha""alpha""alpha" legt den Wert fest (default: 1.0).

'tan'"tan""tan""tan""tan":

Tangens-Aktivierung.

'tanh'"tanh""tanh""tanh""tanh":

Tanh-Aktivierung, die wie folgt definiert ist:

'thresholded_relu'"thresholded_relu""thresholded_relu""thresholded_relu""thresholded_relu":

ReLU mit Schwellwert, die wie folgt definiert ist: Setzen des generischen Parameters 'alpha'"alpha""alpha""alpha""alpha" legt den Wert fest (default: 1.0).

Die folgenden generischen Parameter GenParamNameGenParamNameGenParamNamegenParamNamegen_param_name und die entsprechenden Werte GenParamValueGenParamValueGenParamValuegenParamValuegen_param_value werden unterstützt:

'is_inference_output'"is_inference_output""is_inference_output""is_inference_output""is_inference_output":

Bestimmt, ob apply_dl_modelapply_dl_modelApplyDlModelApplyDlModelapply_dl_model die Ausgabe dieses Layers im Dictionary DLResultBatchDLResultBatchDLResultBatchDLResultBatchdlresult_batch zurückgibt, auch ohne den Layer in OutputsOutputsOutputsoutputsoutputs anzugeben ('true'"true""true""true""true"), oder nur falls er angegeben wird ('false'"false""false""false""false").

Default: 'false'"false""false""false""false"

'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" ('relu'"relu""relu""relu""relu"):

Fließkommawert, der eine obere Grenze für eine ReLU angibt.

Wenn der Activation-Layer Teil eines Modells ist, das mit create_dl_modelcreate_dl_modelCreateDlModelCreateDlModelcreate_dl_model erstellt wurde, kann die obere Grenze aufgehoben werden, indem mit set_dl_model_layer_paramset_dl_model_layer_paramSetDlModelLayerParamSetDlModelLayerParamset_dl_model_layer_param ein leeres Tupel für 'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" gesetzt wird.

Default: []

'alpha'"alpha""alpha""alpha""alpha" ('relu'"relu""relu""relu""relu", 'elu'"elu""elu""elu""elu", 'celu'"celu""celu""celu""celu", 'thresholded_relu'"thresholded_relu""thresholded_relu""thresholded_relu""thresholded_relu", 'swish'"swish""swish""swish""swish", 'hard_sigmoid'"hard_sigmoid""hard_sigmoid""hard_sigmoid""hard_sigmoid"):

Float-Wert, der den alpha Parameter von Leaky ReLU, ReLU mit Schwellwert, ELU, Celu, Swish und HardSigmoid-Aktivierung definiert.

Restriktion: Der Wert von 'alpha'"alpha""alpha""alpha""alpha" muss positiv oder Null sein für alle Aktivierungen außer für ActivationTypeActivationTypeActivationTypeactivationTypeactivation_type 'thresholded_relu'"thresholded_relu""thresholded_relu""thresholded_relu""thresholded_relu". Dieser Parameter ist inkompatibel mit 'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" für den ActivationTypeActivationTypeActivationTypeactivationTypeactivation_type 'relu'"relu""relu""relu""relu".

Default: 0.2 für 'hard_sigmoid'"hard_sigmoid""hard_sigmoid""hard_sigmoid""hard_sigmoid", sonst 1.0

'beta'"beta""beta""beta""beta" ('hard_sigmoid'"hard_sigmoid""hard_sigmoid""hard_sigmoid""hard_sigmoid"):

Float-Wert, der den beta Parameter von HardSigmoid definiert.

Default: 0.5

'min'"min""min""min""min" ('clip'"clip""clip""clip""clip"):

Float-Wert, der den min Parameter einer 'clip'-Aktivierung definiert.

'max'"max""max""max""max" ('clip'"clip""clip""clip""clip"):

Float-Wert, der den max Parameter einer 'clip'-Aktivierung definiert.

'approximate'"approximate""approximate""approximate""approximate" ('gelu'"gelu""gelu""gelu""gelu"):

Durch diesen Wert kann eine approximierte Berechnung ausgewählt werden.

Werteliste: 'tanh'"tanh""tanh""tanh""tanh", 'false'"false""false""false""false"

Default: 'false'"false""false""false""false"

'exponent'"exponent""exponent""exponent""exponent" ('pow'"pow""pow""pow""pow"):

Float-Wert, der den exponent Parameter einer 'pow'-Aktivierung definiert.

Bestimmte Parameter von Layern, die mit create_dl_layer_activationcreate_dl_layer_activationCreateDlLayerActivationCreateDlLayerActivationcreate_dl_layer_activation erzeugt wurden, können mit weiteren Operatoren gesetzt und abgerufen werden. Die folgenden Tabellen geben einen Überblick, welche Parameter mit set_dl_model_layer_paramset_dl_model_layer_paramSetDlModelLayerParamSetDlModelLayerParamset_dl_model_layer_param gesetzt werden können und welche mit get_dl_model_layer_paramget_dl_model_layer_paramGetDlModelLayerParamGetDlModelLayerParamget_dl_model_layer_param oder get_dl_layer_paramget_dl_layer_paramGetDlLayerParamGetDlLayerParamget_dl_layer_param ausgelesen werden können. Es ist zu beachten, dass die Operatoren set_dl_model_layer_paramset_dl_model_layer_paramSetDlModelLayerParamSetDlModelLayerParamset_dl_model_layer_param und get_dl_model_layer_paramget_dl_model_layer_paramGetDlModelLayerParamGetDlModelLayerParamget_dl_model_layer_param ein Modell benötigen, das mit create_dl_modelcreate_dl_modelCreateDlModelCreateDlModelcreate_dl_model erzeugt wurde.

Layer-Parameter set get
'activation_type'"activation_type""activation_type""activation_type""activation_type" (ActivationTypeActivationTypeActivationTypeactivationTypeactivation_type) x x
'input_layer'"input_layer""input_layer""input_layer""input_layer" (DLLayerInputDLLayerInputDLLayerInputDLLayerInputdllayer_input) x
'name'"name""name""name""name" (LayerNameLayerNameLayerNamelayerNamelayer_name) x x
'output_layer'"output_layer""output_layer""output_layer""output_layer" (DLLayerActivationDLLayerActivationDLLayerActivationDLLayerActivationdllayer_activation) x
'shape'"shape""shape""shape""shape" x
'type'"type""type""type""type" x
Generische Layer-Parameter set get
'is_inference_output'"is_inference_output""is_inference_output""is_inference_output""is_inference_output" x x
'num_trainable_params'"num_trainable_params""num_trainable_params""num_trainable_params""num_trainable_params" x
'alpha'"alpha""alpha""alpha""alpha" x x
'beta'"beta""beta""beta""beta" x x
'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound" x x
'min'"min""min""min""min" x x
'max'"max""max""max""max" x x
'approximate'"approximate""approximate""approximate""approximate" x x
'exponent'"exponent""exponent""exponent""exponent" x x

Ausführungsinformationen

Parameter

DLLayerInputDLLayerInputDLLayerInputDLLayerInputdllayer_input (input_control)  dl_layer HDlLayer, HTupleHHandleHTupleHtuple (handle) (IntPtr) (HHandle) (handle)

Zuführender Layer.

LayerNameLayerNameLayerNamelayerNamelayer_name (input_control)  string HTuplestrHTupleHtuple (string) (string) (HString) (char*)

Name des Ausgabelayers.

ActivationTypeActivationTypeActivationTypeactivationTypeactivation_type (input_control)  string HTuplestrHTupleHtuple (string) (string) (HString) (char*)

Aktivierungstyp.

Default: 'relu' "relu" "relu" "relu" "relu"

Werteliste: 'abs'"abs""abs""abs""abs", 'acos'"acos""acos""acos""acos", 'asin'"asin""asin""asin""asin", 'atan'"atan""atan""atan""atan", 'ceil'"ceil""ceil""ceil""ceil", 'celu'"celu""celu""celu""celu", 'clip'"clip""clip""clip""clip", 'cos'"cos""cos""cos""cos", 'cosh'"cosh""cosh""cosh""cosh", 'elu'"elu""elu""elu""elu", 'erf'"erf""erf""erf""erf", 'exp'"exp""exp""exp""exp", 'floor'"floor""floor""floor""floor", 'gelu'"gelu""gelu""gelu""gelu", 'hard_sigmoid'"hard_sigmoid""hard_sigmoid""hard_sigmoid""hard_sigmoid", 'hard_swish'"hard_swish""hard_swish""hard_swish""hard_swish", 'log'"log""log""log""log", 'mish'"mish""mish""mish""mish", 'neg'"neg""neg""neg""neg", 'pow'"pow""pow""pow""pow", 'reciprocal'"reciprocal""reciprocal""reciprocal""reciprocal", 'relu'"relu""relu""relu""relu", 'round'"round""round""round""round", 'sigmoid'"sigmoid""sigmoid""sigmoid""sigmoid", 'sin'"sin""sin""sin""sin", 'sinh'"sinh""sinh""sinh""sinh", 'softplus'"softplus""softplus""softplus""softplus", 'softsign'"softsign""softsign""softsign""softsign", 'sqrt'"sqrt""sqrt""sqrt""sqrt", 'swish'"swish""swish""swish""swish", 'tan'"tan""tan""tan""tan", 'tanh'"tanh""tanh""tanh""tanh", 'thresholded_relu'"thresholded_relu""thresholded_relu""thresholded_relu""thresholded_relu"

GenParamNameGenParamNameGenParamNamegenParamNamegen_param_name (input_control)  attribute.name(-array) HTupleMaybeSequence[str]HTupleHtuple (string) (string) (HString) (char*)

Namen der generischen Eingabeparameter.

Default: []

Werteliste: 'alpha'"alpha""alpha""alpha""alpha", 'approximate'"approximate""approximate""approximate""approximate", 'beta'"beta""beta""beta""beta", 'exponent'"exponent""exponent""exponent""exponent", 'is_inference_output'"is_inference_output""is_inference_output""is_inference_output""is_inference_output", 'max'"max""max""max""max", 'min'"min""min""min""min", 'upper_bound'"upper_bound""upper_bound""upper_bound""upper_bound"

GenParamValueGenParamValueGenParamValuegenParamValuegen_param_value (input_control)  attribute.value(-array) HTupleMaybeSequence[Union[int, float, str]]HTupleHtuple (string / integer / real) (string / int / long / double) (HString / Hlong / double) (char* / Hlong / double)

Werte der generischen Eingabeparameter.

Default: []

Wertevorschläge: 'true'"true""true""true""true", 'false'"false""false""false""false", 'tanh'"tanh""tanh""tanh""tanh"

DLLayerActivationDLLayerActivationDLLayerActivationDLLayerActivationdllayer_activation (output_control)  dl_layer HDlLayer, HTupleHHandleHTupleHtuple (handle) (IntPtr) (HHandle) (handle)

Activation-Layer.

Modul

Deep Learning Professional