This HTML5 document contains 139 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

PrefixNamespace IRI
dbthttp://dbpedia.org/resource/Template:
wikipedia-enhttp://en.wikipedia.org/wiki/
dbrhttp://dbpedia.org/resource/
n10http://en.wikipedia.org/wiki/Graph_neural_network?oldid=1117378573&ns=
n37http://commons.wikimedia.org/wiki/Special:FilePath/Message_Passing_Neural_Network.
n29http://dbpedia.org/resource/File:GNN_building_blocks.
n43http://dbpedia.org/resource/Graph_(discrete_mathematics)
n20http://commons.wikimedia.org/wiki/Special:FilePath/GNN_building_blocks.png?width=
dbpedia-arhttp://ar.dbpedia.org/resource/
n8http://dbpedia.org/resource/Filter_(signal_processing)
n25http://dbpedia.org/resource/Rectifier_(neural_networks)
n5http://dbpedia.org/resource/Library_(computing)
n26http://dbpedia.org/resource/Distance_(graph_theory)
n21http://dbpedia.org/resource/Sentence_(linguistics)
dcthttp://purl.org/dc/terms/
rdfshttp://www.w3.org/2000/01/rdf-schema#
n18http://localhost:8890/about/id/entity/http/dbpedia.org/resource/
n34http://commons.wikimedia.org/wiki/Special:FilePath/GNN_representational_limits.
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
n30http://dbpedia.org/resource/Neighbourhood_(graph_theory)
n39https://covidontheweb.inria.fr:4443/about/id/entity/http/dbpedia.org/resource/
dbphttp://dbpedia.org/property/
n11http://dbpedia.org/resource/Invariant_(mathematics)
n44http://dbpedia.org/resource/Attention_(machine_learning)
xsdhhttp://www.w3.org/2001/XMLSchema#
n33http://commons.wikimedia.org/wiki/Special:FilePath/GNN_building_blocks.
dbohttp://dbpedia.org/ontology/
n16http://dbpedia.org/resource/Map_(mathematics)
n19http://dbpedia.org/resource/Transformer_(machine_learning_model)
n35http://dbpedia.org/resource/Downsampling_(signal_processing)
dbchttp://dbpedia.org/resource/Category:
n45http://dbpedia.org/resource/Graph_(abstract_data_type)
wdhttp://www.wikidata.org/entity/
n41https://global.dbpedia.org/id/
n38http://dbpedia.org/resource/Placement_(electronic_design_automation)
n28https://distill.pub/2021/gnn-intro/
n24http://dbpedia.org/resource/Layer_(deep_learning)
n31http://dbpedia.org/resource/File:GNN_representational_limits.
provhttp://www.w3.org/ns/prov#
foafhttp://xmlns.com/foaf/0.1/
n15http://dbpedia.org/resource/Projection_(mathematics)
wdrshttp://www.w3.org/2007/05/powder-s#
n36http://dbpedia.org/resource/Graph_neural_network#
n32http://dbpedia.org/resource/File:Message_Passing_Neural_Network.
n27http://dbpedia.org/resource/Feature_(machine_learning)
owlhttp://www.w3.org/2002/07/owl#
Subject Item
dbr:Graph_neural_network
rdf:type
owl:Thing
rdfs:label
Graph neural network الشبكات العصبية للرسم البياني
rdfs:comment
الشبكات العصبية للرسم البياني (بالانجليزية: Graph Neural Network) هي نوع من أنواع الشبكات العصبية الاصطناعية المستخدمة في معالجة البيانات التي يمكن تمثيلها من خلال الرسوم البيانية. الرسوم البيانية تتكون بالعادة من عدد محدود من العقد أو النقاط الموصول بينها بخطوط أو أسهم. تشمل تطبيقات الشبكات العصبية للرسوم البيانية: الشبكات الاجتماعية، والشبكات المتعلقة بالتضمين والاقتباس، والبيولوجيا الجزيئية، والكيمياء، والفيزياء ومشاكل التحسين الاندماجي الصعب NP. هناك العديد من المكتبات المفتوحة التي تقوم بإنشاء أو التعامل مع الشبكات العصبية للرسوم البيانية مثل PyTorch وTensorflow و jraph. A Graph neural network (GNN) is a class of artificial neural networks for processing data that can be represented as graphs. In the more general subject of "Geometric Deep Learning", certain existing neural network architectures can be interpreted as GNNs operating on suitably defined graphs. Convolutional neural networks, in the context of computer vision, can be seen as a GNN applied to graphs structured as grids of pixels. Transformers, in the context of natural language processing, can be seen as GNNs applied to complete graphs whose nodes are words in a sentence.
rdfs:seeAlso
dbr:AlphaFold dbr:Recommender_system dbr:Combinatorial_Optimization
owl:sameAs
dbpedia-ar:الشبكات_العصبية_للرسم_البياني n41:FsrUX dbr:Graph_neural_network wd:Q107750691
foaf:topic
dbr:Code_property_graph dbr:Deep_learning dbr:Types_of_artificial_neural_networks dbr:GNN dbr:Node2vec n36:this wikipedia-en:Graph_neural_network dbr:Graph_Convolutional_Neural_Network dbr:Graph_Neural_Network dbr:Graph_Attention_Network dbr:Graph_Convolutional_Network dbr:Graph_attention_network dbr:Recursive_neural_network dbr:Graph_convolutional_network dbr:Applications_of_graph_neural_networks
foaf:depiction
n33:png n34:png n37:png
wdrs:describedby
n18:Artificial_neural_network n39:Google n39:Data_structure_alignment n18:Biology
dct:subject
dbc:Machine_learning dbc:Graph_algorithms dbc:Artificial_neural_networks dbc:Unsupervised_learning dbc:Supervised_learning dbc:Semisupervised_learning
dbo:wikiPageID
68162942
dbo:wikiPageRevisionID
1117378573
dbo:wikiPageWikiLink
n5: dbr:Shortest_path_problem dbr:Open_source dbr:Social_graph dbr:ReLU dbr:Social_network dbr:Molecules dbr:Google n8: dbr:Branch_and_Bound n11: dbr:Identity_matrix dbr:Molecular_biology dbr:Degree_matrix dbr:Max_Welling dbr:Social_relations dbr:Artificial_neural_network n15: dbc:Graph_algorithms n16: dbr:Protein_folding dbr:Deep_Learning dbr:Chemical_bond n19: dbr:Eulerian_path dbr:Activation_function dbr:Differentiable_functions dbr:Eigenvalue dbr:Petar_Veličković dbr:Backpropagation dbr:Nearest_neighbor_graph dbc:Machine_learning dbr:TensorFlow dbr:CASP dbr:Pixel dbc:Artificial_neural_networks dbr:PyTorch dbr:Google_JAX dbr:Concatenation n21: dbr:NP-hard dbr:Data_structure_alignment n24: dbr:Permutation dbr:Biology n25: n26: dbr:DeepMind dbr:Atoms n27: dbr:Statistical_classification dbr:Adjacency_matrix dbr:Physics dbr:Simplicial_complex dbr:Natural_language_processing dbc:Unsupervised_learning dbr:Transpose dbr:Social_networks dbr:Vanishing_gradient_problem dbc:Supervised_learning dbr:Attention n29:png n30: n31:png n32:png n35: dbr:Matrix_multiplication dbr:Sigmoid_function n38: dbr:Residual_neural_network dbr:Thomas_Kipf dbr:Yujia_Li dbr:AlphaFold dbr:Gated_recurrent_unit dbc:Semisupervised_learning dbr:Computer_vision dbr:Complete_graph dbr:Order_of_approximation n43: dbr:Numerical_stability n44: dbr:Citation_graph dbr:Convolutional_neural_network dbr:Combinatorial_optimization n45: dbr:Words
dbo:wikiPageExternalLink
n28:
foaf:isPrimaryTopicOf
wikipedia-en:Graph_neural_network
prov:wasDerivedFrom
n10:0
dbo:abstract
الشبكات العصبية للرسم البياني (بالانجليزية: Graph Neural Network) هي نوع من أنواع الشبكات العصبية الاصطناعية المستخدمة في معالجة البيانات التي يمكن تمثيلها من خلال الرسوم البيانية. الرسوم البيانية تتكون بالعادة من عدد محدود من العقد أو النقاط الموصول بينها بخطوط أو أسهم. بشكل عام في التعلم العميق الهندسي (بالانجليزية: Geometry Deep Learning) يمكننا تكييف بنية أي نوع من البيانات على شكل رسوم بيانية فعلى سبيل المثال يمكننا اعتبار الشبكات العصبية التلافيفية (بالانجليزية: Convolutional Neural Network) على أنها عبارة عن رسوم بيانية بحيث تتمثل من خلالها كل نقطة (بكسل) في الصورة على شكل عقدة في الرسوم البيانية. أو كمثال آخر يمكننا تمثيل الكلمات في الجمل على شكل عقد للرسم البياني. العنصرالأساسي في تصميم الشبكات العصبية للرسم البياني هو استخدام تمرير الرسائل المزدوج، مثل أن تقوم عقد الرسم البياني بتحديث تمثيلاتها بشكل متكرر من خلال تبادل المعلومات مع جيرانها. منذ نشأة هذا النوع من الشبكات العصبية، تم اقتراح العديد من أساليب بنائها، والتي تنفذ صيغًا مختلفة لتمريرالرسائل. اعتبارًا من عام 2022، بدأ التساؤل حول إمكانية إيجاد معماريات «تتجاوز» عملية تمرير الرسائل، أو إذا كان من الممكن اقتراح طرق مختلفة لتمرير الرسائل لكل نوع من أنواع الرسوم البيانية بحيث تكون ملائمة بشكل أفضل لطريقة عملها، هذه التساؤلات يمكن أن تكون موضوع لمشكلة بحث جديدة. تشمل تطبيقات الشبكات العصبية للرسوم البيانية: الشبكات الاجتماعية، والشبكات المتعلقة بالتضمين والاقتباس، والبيولوجيا الجزيئية، والكيمياء، والفيزياء ومشاكل التحسين الاندماجي الصعب NP. هناك العديد من المكتبات المفتوحة التي تقوم بإنشاء أو التعامل مع الشبكات العصبية للرسوم البيانية مثل PyTorch وTensorflow و jraph. A Graph neural network (GNN) is a class of artificial neural networks for processing data that can be represented as graphs. In the more general subject of "Geometric Deep Learning", certain existing neural network architectures can be interpreted as GNNs operating on suitably defined graphs. Convolutional neural networks, in the context of computer vision, can be seen as a GNN applied to graphs structured as grids of pixels. Transformers, in the context of natural language processing, can be seen as GNNs applied to complete graphs whose nodes are words in a sentence. The key design element of GNNs is the use of pairwise message passing, such that graph nodes iteratively update their representations by exchanging information with their neighbors. Since their inception, several different GNN architectures have been proposed, which implement different flavors of message passing. As of 2022, whether it is possible to define GNN architectures "going beyond" message passing, or if every GNN can be built on message passing over suitably defined graphs, is an open research question. Relevant application domains for GNNs include social networks, citation networks, molecular biology, chemistry, physics andNP-hard combinatorial optimization problems. Several open source libraries implementing graph neural networks are available, such as PyTorch Geometric (PyTorch), TensorFlow GNN (TensorFlow), and jraph (Google JAX).
dbo:thumbnail
n20:300
dbo:wikiPageLength
29630
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:Machine_learning dbt:As_of dbt:See_also