问题: 网络空间

标准化的公共情报超类别

+4  

基于方程式的本体库,创建用于数据源分类的标准超类别,使数据更具可操作性。

YAML 想法

因此,我们的想法是,使用方程式模型的本体库(F(X)=Y),我们可以创建特定的超类别来对分类系统和数据源进行分类。 检查协作文档。 例如,它的零版本可能看起来像这样:

条件(Y)

1. 目标 200

  • TSV 210:技术-科学视野。
  • NPL 210:国家政策目标,
  • NLG 210:国家立法目标,
  • RLG 210:地区立法目标,
  • OP 210:组织政策目标,
  • RDG 210:区域发展目标,
  • NMG 210:NGO / NPO任务目标,
  • ECI 210:种族文化意向,
  • INTT 210:国际条约,

2. 想法 400

  • ICAT 220:行业类别代码,
  • PCAT 220:产品类别代码(例如HS),
  • ACAT 220:经济活动类别代码(例如NACESICNAICS),
  • PTN 450:专利号,
  • SPN 420:科学出版物编号(例如DOI),
  • TRP 430:技术报告,
  • PROT 430:实验室或者医学治疗程序(例如Protocol-Online),
  • INBS 410:脑力激荡的创新想法(例如半面包店),
  • CD-REPO 430:代码存储库(电脑程序),
  • ISTD 220:工业标准代码。

3. 计划 300

  • CPN 330:公司的项目名称,
  • CSPN 330:联盟项目,
  • PPN 360:个人项目名称,
  • PCN 360:项目代号,
  • MID 360:任务ID。

动作(X)

4. 运作 500

  • CPU-OPS 510:浮点运算,
  • NET-RQST 511:网络请求操作,
  • UI-MOVE 510:用户界面移动,
  • ORG-TASK 530:组织任务,
  • ORG-PROD 533:组织产品(制造操作),
  • TRD-ORD 520:市场贸易订单 (GAAP 分类, IFRS 分类),
  • MTF 526:资金转移,
  • ATF 523:资产转移(例如装运),
  • ITF 511:信息传输(例如,消息、文件上传等,与NET-RQST重叠),
  • MED-OP 534:医疗手术,
  • LAB-OP 534:实验室操作,
  • WEB部署 511:基于CI/CD的在线系统部署操作。

实体(F)

5. 资产 300

↳1)代理人 330, 370

  • CRED 330:公司注册ID(例如D-U-N-S),
  • CNID 330:公司的国家识别码,
  • INID 370:个人身份证件号码,
  • SNET 330, 370:社交网络ID。

↳2)事项 310, 320, 460, 470, 480

  • NREID 310:国家房地产ID(例如,地籍),
  • NTEID 310:国家有形资产ID(例如,国家汽车注册单,国家电话注册单),
  • INSTRID 480:仪器/工业机械ID,
  • COMIDS 470:商品产品单位编号,
  • FINIDS 470:金融产品单位编号,
  • WASID 320:(Web资产ID,例如MAC地址)。

↳3)主题 100*

  • BPST 120:博客文章,
  • NPST 120:新闻发布。

6. 地方 150*

  • RLOC 151:真实位置(例如地址),WGSWCS/FITS
  • VLOC 153:虚拟位置(例如IP、IPv6地址、神经网络区域),计算机/电话地址寄存器(4.3 +十亿个IP地址),思想在神经网络中的位置等。

7. 事件 120

  • TS 120:时间戳,
  • DT 120:日期
Mindey,


(别通知) (可选) 请,登录

甚至对于在我们的[类别](/ intents / tree)中为导入的数据进行排序(甚至在这里,在0-> oo :)上也可能有用。

May be useful even for making order in our categories for imported data even here, on 0 -> oo :)


当前,在导入数据集时,开始使用它,会自动生成源类别,如下所示:

“ Y:IDEA:TRP:NTRS”,以引用NASA技术报告服务器

Currently, while importing datasets, started using it, auto-generating categories for sources, like so:

Y:IDEA:TRP:NTRS, to refer to NASA Technical Reports Server.



    :  -- 
    : Mindey
    :  -- 
    

Mindey,

//导入数据集

如何导入数据集?

//while importing datasets How do I import a dataset?


还有更多需要考虑的事情。今天,我们有公司深入学习特定模型来回答特定问题。例如,身份和面部识别模型,天气模型等以及这些特定模型被集成决策系统用作决策的资源。

因此,就像我们在抽象网络层上建立一层网络协议时(例如OSI模型中的层)一样,我们实际上可以拥有用于学习的模型,从头开始构建社交AI,并结合多个标准化AI模型。

对机器学习的模型进行版本控制和标准化后,我们可以指定这些模型的质量和盲点,并采取措施自信地进行版本控制,逐步改进并在派生应用程序中使用它们。

例如,假设对“漫画”概念的定义不是由字典定义的,而是由ANN定义的,例如Manga GAN,并变成了类似于ISO标准的东西“漫画”的外观模型。许多AI系统已经过版本控制,例如Google Translate,并且它们的属性是已知的。因此,请考虑我们构建并标准化AI模型的许多概念和复杂现象。

也许此评论值得一提,即有关AI模型的ISO标准化思想的文章。

There is something more to consider. Today, we have companies deep-learning specific models to answer specific questions. For example, identity and face recognition models, weather models, etc., and these specific models are being used as a resource by integrative decision systems to make decisions.

So, just like we had layers of abstraction while building network protocols one upon another (e.g., layers in OSI model), we could actually have standards for deep-learned models, build social AI from ground up, combining multiple standardized AI models.

Having versioned and standardized machine-learned models would allow us to work on specifying the qualities and blind-spots of these models, and take actions to confidently version, incrementally improve, and use them in derived applications.

For example, imagine that definition of a concept "Manga" is defined not by a dictionary, but by an ANN, like Manga GAN, and becomes something like an ISO standard model of what "Manga" looks like. Many AI systems are already versioned, like, for example Google Translate, and the properties of them are known. So, think of many concepts and complex phenomena that we build AI models of, and standardize.

Perhaps this comment merits a separate post, of an idea of ISO standardization for AI models.


实际上,通过时间和对功能网络世界地图助手,我想出了一个更紧凑,更实用的高级分类系统。它围绕系统的概念展开,仅涉及五类概念:“ 100:资源”,“ 200:类别”,“ 300:系统”,“ 400:方法”和“ 500:操作”。有关详细信息,请参见V2(“网络资源词汇”)。我目前使用它来组织所有已爬网的数据。遵循类似的模式,我们将HTTP响应与HTTP状态代码进行分类。也许这里的这些超级类别可以用来扩展该网络资源词汇。

我想知道,其他人是否已经做了类似的事情,他们想出了什么方法。

Actually, through time and reflections on Network of Functions and World Mapping Assistant, I had come up with a higher level categorization system that is more compact and usable. It revolves around the concept of Systems, and involves only 5 classes of concepts: 100: Resource, 200: Category, 300: System, 400: Method, and 500: Operation. The details are on V2 ("Network Resource Vocabulary"). I currently use it to organize all crawled data. It follows a similar pattern how we categorize the HTTP responses with HTTP Status Codes. Perhaps these supercategories here could be used to extend that network resource vocabulary.

I wonder, is there something similar already done by others, and what approaches had they come up with.



    : Mindey
    :  -- 
    :  -- 
    

Mindey,