mindinsight.debugger

MindSpore调试器是为图模式训练提供的调试工具,可以用来查看并分析计算图节点的中间结果。 在MindSpore图模式的训练过程中,用户无法方便地获取到计算图中间节点的结果,使得训练调试变得很困难。

使用MindSpore调试器,用户可以:在MindInsight调试器界面结合计算图,查看图节点的输出结果;设置监测点,监测训练异常情况(比如检查张量溢出),在异常发生时追踪错误原因;查看权重等参数的变化情况;查看图节点和源代码的对应关系。

调试器API是为离线调试提供的Python API接口,使用之前需要先保存Dump数据。保存Dump数据的方法参考 使用Dump功能在Graph模式调试

class mindinsight.debugger.DumpAnalyzer(dump_dir, mem_limit=None)[源代码]

用来检查Dump数据的分析器。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • dump_dir (str) - 存储Dump数据文件的目录。

  • mem_limit (int,可选) - 检查监测点的内存限制(以MB为单位),可选值:从2048MB到2147483647MB,None表示不设限制,只受限于计算机内存。默认值:None。

支持平台:

Ascend GPU

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
check_watchpoints(watchpoints, error_on_no_value=False)[源代码]

批量检查给定监测点。

说明

  1. 为了提升速度,应该同时给出迭代下的所有监测点,避免多次读取张量。

  2. check_watchpoints 函数在调用的时候会启动新的进程,需要通过 if __name__ == ‘__main__’ 进行调用。

参数:
  • watchpoints (Iterable[Watchpoint]) - 监测点列表。

  • error_on_no_value (bool,可选) - 当指定的张量没有存储在 dump_dir 路径中时,是否抛出错误码。默认值:False。

返回:

Iterable[WatchpointHit],监测点命中列表,并按张量落盘时间排序。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> from mindinsight.debugger import (TensorTooLargeCondition,
...                                    Watchpoint)
>>>
>>> def test_watchpoints():
...     my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
...     tensors = my_run.select_tensors(
...                                         query_string="Conv2D-op13",
...                                         use_regex=True,
...                                         iterations=[0],
...                                         ranks=[0],
...                                         slots=[0]
...                                         )
...     watchpoint = Watchpoint(tensors=tensors,
...                             condition=TensorTooLargeCondition(abs_mean_gt=0.0))
...     # the check_watchpoints function start a new process needs to be called through the main entry
...     hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0]
...     # print(str(hit))
...     # the print result is as follows
...     # Watchpoint TensorTooLarge triggered on tensor:
...     # rank: 0
...     # graph_name: kernel_graph_0
...     # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv2-Conv2d/Conv2D-op13
...     # slot: 0
...     # iteration: 0
...     # Threshold: {'abs_mean_gt': 0.0}
...     # Hit detail: the setting for watchpoint is abs_mean_gt = 0.0.
...     # The actual value of the tensor is abs_mean_gt = 0.06592023578438996.
...
>>> if __name__ == "__main__":
...     test_watchpoints()
...
export_graphs(output_dir=None)[源代码]

将计算图导出到 output_dir 路径下的xlsx文件中。

这些文件将包含图节点的堆栈信息。

参数:
  • output_dir (str,可选) - 保存文件的输出目录,None表示使用当前的工作目录。默认值:None。

返回:

str,生成文件的路径。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> res = my_run.export_graphs()
get_input_nodes(node)[源代码]

获取指定节点的输入节点信息。

参数:
  • node (Node) - 指定节点。

返回:

Iterable[Node],指定节点的输入节点。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node_list = list(my_run.select_nodes(query_string="Conv2D-op13"))
>>> input_nodes = my_run.get_input_nodes(node_list[0])
get_iterations(ranks=None)[源代码]

获取有Dump数据的迭代序号列表。

参数:
  • ranks (Union[int, list[int], None],可选) - 指定逻辑卡号。逻辑卡号是指运行分布式训练时,将使用的设备从0开始编号,此编号称为逻辑卡号,例如,对于8卡计算机,指定训练时只使用4-7卡,那么4-7卡分别对应逻辑卡号0-3。如果设置成None,将返回所有逻辑卡的迭代序号列表。默认值:None。

返回:

Iterable[int],有Dump数据的迭代序号列表,按从小到大排序。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> iterations = my_run.get_iterations()
>>> print(list(iterations))
[0]
get_output_nodes(node)[源代码]

获取指定节点的输出节点。

参数:
  • node (Node) - 指定节点。

返回:

Iterable[Node],该节点的输出节点。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node_list = list(my_run.select_nodes(query_string="Conv2D-op13"))
>>> out_nodes = my_run.get_output_nodes(node_list[0])
get_ranks()[源代码]

获取有Dump数据的逻辑卡号列表。

返回:

Iterable[int],当前Dump目录中的逻辑卡号列表。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> ranks = my_run.get_ranks()
>>> print(list(ranks))
[0]
list_affected_nodes(tensor)[源代码]

列出使用指定张量作为输入的节点。

受影响的节点是指使用给定张量作为输入的节点。如果一个节点受到给定张量的影响,那么当给定的张量发生变化时,该节点的输出值很可能会发生变化。

参数:
  • tensor (DebuggerTensor) - 指定张量。

返回:

Iterable[Node],受指定张量影响的节点。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensor_list = list(my_run.select_tensors(query_string="Conv2D-op13"))
>>> affected_nodes = my_run.list_affected_nodes(tensor_list[0])
select_nodes(query_string, use_regex=False, select_by='node_name', ranks=None, case_sensitive=True)[源代码]

筛选节点。

根据节点名称或节点堆栈信息选择符合要求的节点,具体用法请参考参数说明。

参数:
  • query_string (str) - 查询字符串。对于要选择的节点,匹配目标字段必须包含或能匹配到查询的字符串。

  • use_regex (bool,可选) - 是否对目标字段按照查询字符串进行正则匹配。默认值:False。

  • select_by (str,可选) - 选择节点时要搜索的字段。可用值为“node_name”、“code_stack”。“node_name”表示根据节点的名称进行筛选。“code_stack”表示对系统的堆栈信息进行筛选。默认值:“node_name”。

  • ranks (Union[int, list[int], None],可选) - 要选择的逻辑卡号或者逻辑卡号列表,None表示将考虑所有逻辑卡。选定的节点必须存在于指定的逻辑卡上。默认值:None。

  • case_sensitive (bool,可选) - 对目标字段进行匹配时是否区分大小写。默认值:True。

返回:

Iterable[Node],匹配的节点。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> nodes = my_run.select_nodes("Conv2D-op13")
select_tensors(query_string, use_regex=False, select_by='node_name', iterations=None, ranks=None, slots=None, case_sensitive=True)[源代码]

筛选张量。

根据给定的筛选条件选择目录中匹配的张量,具体用法请参考参数说明。

参数:
  • query_string (str) - 查询字符串。对于要选择的张量,匹配目标字段必须包含或能匹配到查询字符串。

  • use_regex (bool,可选) - 指明查询对象是否为正则表达式。默认值:False。

  • select_by (str,可选) - 选择张量时要搜索的字段。可用值为“node_name”、“code_stack”。“node_name”表示在图中搜索张量的节点名称。“code_stack”表示输出该张量的节点的堆栈信息。默认值:“node_name”。

  • iterations (Union[int, list[int], None],可选) - 要选择的迭代序号或迭代序号列表,None表示选择保存的所有迭代。默认值:None。

  • ranks (Union[int, list[int], None],可选) - 要选择的逻辑卡号或逻辑卡号列表,None表示将选择所有逻辑卡。默认值:None。

  • slots (list[int],可选) - 所选张量的编号,None表示将选择所有编号。默认值:None。

  • case_sensitive (bool,可选) - 选择张量时是否区分大小写。默认值:True。

返回:

Iterable[DebuggerTensor],匹配的张量。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensors = my_run.select_tensors("Conv2D-op13")
class mindinsight.debugger.Node(node_feature)[源代码]

计算图中的节点。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • node_feature (namedtuple) - 节点特征,包含以下信息:

    • name (str) - 节点名称。

    • rank (int) - 逻辑卡号。

    • stack (iterable[dict]) - 堆栈信息,每一项的格式为:

        {
            'file_path': str,
            'line_no': int,
            'code_line': str
        }
      
      - **graph_name** (str) - 图名称。
      - **root_graph_id** (int) - 根图id。
      

说明

用户不应该手动实例化此类。 这个类的实例是不可修改的。

get_input_tensors(iterations=None, slots=None)[源代码]

获取当前节点的输入张量。

参数:
  • iterations (Iterable[int],可选) - 指定迭代序号列表,None,表示将考虑所有可用的迭代。默认值:None。

  • slots (Iterable[int],可选) - 指定输入张量的编号列表,None表示会返回所有的输入张量。默认值:None。

返回:

Iterable[DebuggerTensor],节点的输入张量列表。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node = list(my_run.select_nodes("Conv2D-op13"))[0]
>>> input_tensors = node.get_input_tensors(iterations=[0], slots=[0])
get_output_tensors(iterations=None, slots=None)[源代码]

获取当前节点的输出张量。

参数:
  • iterations (Iterable[int],可选) - 指定迭代序号列表,None表示将考虑所有可用的迭代。默认值:None。

  • slots (Iterable[int],可选) - 指定输出张量的编号列表,None表示会返回所有的输出张量。默认值:None。

返回:

Iterable[DebuggerTensor],节点的输出张量。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node = list(my_run.select_nodes("Conv2D-op13"))[0]
>>> output_tensors = node.get_output_tensors(iterations=[0], slots=[0])
property graph_name

获取当前节点的图名称。

返回:

str,图名称。

property name

获取当前节点的全名。

返回:

str,当前节点的全名。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node = list(my_run.select_nodes("conv"))[0]
>>> print(node.name)
conv1.weight
property rank

获取当前节点逻辑卡号。

返回:

int,当前节点所属的逻辑卡号。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node = list(my_run.select_nodes("conv"))[0]
>>> print(node.rank)
0
property root_graph_id

获取当前节点所属的根图id。

返回:

int,根图id。

property stack

获取当前节点的堆栈信息。

返回:

iterable[dict],每一项的格式为:

{
    'file_path': str,
    'line_no': int,
    'code_line': str
}

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> node = list(my_run.select_nodes("Conv2D-op13"))[0]
>>> # print(node.stack)
>>> # the print result is as follows
>>> # [{'file_path': '/path', 'line_no': 266, 'code_line': 'output = self.conv2d(x, self.weight)',
>>> # 'has_substack': False},
>>> # {'file_path': '/path', 'line_no': 55, 'code_line': 'x = self.conv2(x), 'has_substack': False}]
class mindinsight.debugger.DebuggerTensor(node, slot, iteration)[源代码]

具有特定逻辑卡号、迭代序号和调试信息的张量。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • node (Node) - 输出此张量的节点。

  • slot (int) - 节点上张量的编号。

  • iteration (int) - 张量的迭代序号。

说明

用户不应该手动实例化此类。 这个类的实例是不可修改的。 DebuggerTensor 始终是节点的输出张量。

property iteration

获取张量的迭代序号。

返回:

int,张量的迭代序号。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensors = list(my_run.select_tensors("conv"))
>>> print(tensors[0].iteration)
0
property node

获取输出此张量的节点。

返回:

Node,输出这个张量的节点。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensors = list(my_run.select_tensors("conv"))
>>> print(tensors[0].node)
rank: 0
graph_name: kernel_graph_0
node_name: conv1.weight
property rank

rank代表的是生成张量的设备逻辑卡的卡号。

返回:

int,生成张量的设备的逻辑卡的卡号。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensors = list(my_run.select_tensors("conv"))
>>> print(tensors[0].rank)
0
property slot

节点的输出可能有几个张量,slot指的是张量的编号。

返回:

int,节点上生成张量的编号。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensors = list(my_run.select_tensors("conv"))
>>> print(tensors[0].slot)
0
value()[源代码]

获取张量的值。

返回:

Union[numpy.array, None],如果在相关迭代中找不到数据文件,则该值可能为None。

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>>
>>> def test_debugger_tensor():
...     my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
...     tensors = list(my_run.select_tensors("conv"))
...     # the tensors[0].value() maybe start the new process
...     value = tensors[0].value()
...     return value
...
>>> if __name__ == "__main__":
...     test_debugger_tensor()
...
class mindinsight.debugger.Watchpoint(tensors, condition)[源代码]

用来检查指定张量是否满足指定检查条件的监测点。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • tensors (Iterable[DebuggerTensor]) - 要检查的张量。

  • condition (ConditionBase) - 应用于张量的检查条件。

支持平台:

Ascend GPU

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> from mindinsight.debugger import TensorTooLargeCondition, Watchpoint
>>> my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
>>> tensor_list = my_run.select_tensors(
...                                     query_string="Conv",
...                                     use_regex=True,
...                                     iterations=[0],
...                                     ranks=[0],
...                                     slots=[0]
...                                     )
>>> watchpoint = Watchpoint(tensors=tensor_list,
...                         condition=TensorTooLargeCondition(abs_mean_gt=0.0))
>>> tensor = list(watchpoint.tensors)[0]
>>> print(tensor.node.name)
Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7
>>> print(watchpoint.condition.name)
TensorTooLarge
property condition

获取应用于张量的检查条件。

返回:

ConditionBase,应用于张量的检查条件。

property tensors

获取要检查的张量。

返回:

Iterable[DebuggerTensor]),要检查的张量。

class mindinsight.debugger.WatchpointHit[源代码]

监测点命中情况。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

说明

此类不能由用户实例化。 这个类的实例是无法修改的。

支持平台:

Ascend GPU

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> from mindinsight.debugger import TensorTooLargeCondition, Watchpoint
>>>
>>> def test_watch_point_hit():
...     my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
...     tensor_list = my_run.select_tensors(
...                                         query_string="Conv",
...                                         use_regex=True,
...                                         iterations=[0],
...                                         ranks=[0],
...                                         slots=[0]
...                                         )
...     watchpoint = Watchpoint(tensors=tensor_list,
...                             condition=TensorTooLargeCondition(abs_mean_gt=0.0))
...     # the check_watchpoints function start a new process needs to be called through the main entry
...     hits = my_run.check_watchpoints(watchpoints=[watchpoint])
...     hit = list(hits)[0]
...     # print(str(hit))
...     # the print result is as follows
...     # Watchpoint TensorTooLarge triggered on tensor:
...     # rank: 0
...     # graph_name: kernel_graph_0
...     # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7
...     # slot: 0
...     # iteration: 0
...     # Threshold: {'abs_mean_gt': 0.0}
...     # Hit detail: The setting for watchpoint is abs_mean_gt = 0.0.
...     # The actual value of the tensor is abs_mean_gt = 0.007956420533235841.
...     # print(hit.error_code)
...     # the print result is as follows
...     # 0
...     # print(hit.tensor)
...     # the print result is as follows
...     # rank: 0
...     # graph_name: kernel_graph_0
...     # node_name: Default/network-WithLossCell/_backbone-AlexNet/conv1-Conv2d/Cast-op7
...     # slot: 0
...     # iteration: 0
...     # print(hit.get_hit_detail())
...     # the print result is as follows
...     # The setting for watchpoint is abs_mean_gt = 0.0.
...     # The actual value of the tensor is abs_mean_gt = 0.007956420533235841.
...
>>> if __name__ == "__main__":
...     test_watch_point_hit()
...
property error_code

获取错误码,当检查到监测点发生错误时。返回对应的错误码,0表示没有错误发生。

返回:

int,错误码。

property error_msg

如果出现错误,获取检查监测点过程中的错误信息。

返回:

list[str],错误信息列表。

get_hit_detail()[源代码]

获取被触发的检测条件对象,内含造成触发的张量的实际值情况。例如,命中监测点的监测条件为 TensorTooLargeCondition(max_gt=None) ,监测张量值的最大值是否大于0, get_hit_detail 返回该监测条件对象,且该对象中包含张量值的最大值。如果 error_code 不为0,则返回None。

返回:

Union[ConditionBase, None],对应的监测条件的监测值的实际值,如果 error_code 不为0,则返回None。

get_threshold()[源代码]

获取用户设置的监测条件。

返回:

ConditionBase,用户设置的监测条件。

property tensor

获取监测点命中的张量。

返回:

DebuggerTensor,监测点命中的张量。

class mindinsight.debugger.TensorTooLargeCondition(abs_mean_gt=None, max_gt=None, min_gt=None, mean_gt=None)[源代码]

检查张量值过大的监测条件。至少应该指定其中一个参数。

当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • abs_mean_gt (float,可选) - 张量绝对值的均值阈值。当实际值大于该阈值时,则满足该检查条件。

  • max_gt (float,可选) - 张量最大值的阈值。当实际值大于该阈值时,则满足该检查条件。

  • min_gt (float,可选) - 张量最小值的阈值。当实际值大于该阈值时,则满足该检查条件。

  • mean_gt (float,可选) - 张量均值的阈值。当实际值大于该阈值时,则满足该检查条件。

样例:

>>> from mindinsight.debugger import TensorTooLargeCondition
>>> my_condition = TensorTooLargeCondition(abs_mean_gt=0.0)
>>> print(my_condition.name)
TensorTooLarge
property param_names

返回参数名称的列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.TensorTooSmallCondition(abs_mean_lt=None, max_lt=None, min_lt=None, mean_lt=None)[源代码]

检查张量值过小的监测条件。至少应该指定其中一个参数。

当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • abs_mean_lt (float,可选) - 张量绝对值的均值阈值。当实际值小于该阈值时,则满足该检查条件。

  • max_lt (float,可选) - 张量最大值的阈值。当实际值小于该阈值时,则满足该检查条件。

  • min_lt (float,可选) - 张量最小值的阈值。当实际值小于该阈值时,则满足该检查条件。

  • mean_lt (float,可选) - 张量均值的阈值。当实际值小于该阈值时,则满足该检查条件。

样例:

>>> from mindinsight.debugger import TensorTooSmallCondition
>>> my_condition = TensorTooSmallCondition(abs_mean_lt=0.2)
>>> print(my_condition.name)
TensorTooSmall
property param_names

返回参数名称的列表。

返回:

list[str],参数名称。

class mindinsight.debugger.TensorRangeCondition(range_start_inclusive=None, range_end_inclusive=None, range_percentage_lt=None, range_percentage_gt=None, max_min_lt=None, max_min_gt=None)[源代码]

检查张量值范围的监测条件。

设置阈值以检查张量值范围。有四个选项: range_percentage_ltrange_percentage_gtmax_min_lt和max_min_gt 。至少应指定四个选项之一。如果阈值设置为前两个选项之一,则必须设置 range_start_inclusiverange_end_inclusive 。当指定多个参数时,只要有一个参数满足检查条件,就会在检查后命中该监测点。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • range_start_inclusive (float,可选) - 指定区间范围的开始。

  • range_end_inclusive (float,可选) - 指定区间范围的结束。

  • range_percentage_lt (float,可选) - [range_start_inclusive, range_end_inclusive] 范围内张量百分比的阈值。当指定范围内张量的百分比小于该值时,将满足检查条件。

  • range_percentage_gt (float,可选) - [range_start_inclusive, range_end_inclusive] 范围内张量百分比的阈值。当指定范围内张量的百分比大于该值时,将满足检查条件。

  • max_min_lt (float,可选) - 张量的最大值和最小值之差的下限阈值。

  • max_min_gt (float,可选) - 张量的最大值和最小值之差的上限阈值。

样例:

>>> from mindinsight.debugger import TensorRangeCondition
>>> my_condition = TensorRangeCondition(max_min_gt=0.05)
>>> print(my_condition.name)
TensorRange
property param_names

返回参数名称的列表。

返回:

list[str],参数名称。

class mindinsight.debugger.TensorOverflowCondition[源代码]

检查张量溢出的监测条件。

张量溢出的监测条件检查 InfNaN 张量。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

样例:

>>> from mindinsight.debugger import TensorOverflowCondition
>>> my_condition = TensorOverflowCondition()
>>> print(my_condition.name)
TensorOverflow
property param_dict

获取参数列表。

返回:

dict,检查条件的参数。

property param_names

返回参数的名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.OperatorOverflowCondition[源代码]

检查算子溢出的监测条件。

算子溢出监测点检查算子计算过程中是否发生溢出。仅支持昇腾AI处理器。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

样例:

>>> from mindinsight.debugger import OperatorOverflowCondition
>>> my_condition = OperatorOverflowCondition()
>>> print(my_condition.name)
OperatorOverflow
property param_dict

获取参数列表。

返回:

dict,检查条件的参数。

property param_names

返回参数的名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.TensorAllZeroCondition(zero_percentage_ge)[源代码]

检查张量值全为零的监测条件。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • zero_percentage_ge (float) - 检查零张量值的百分比是否大于此值的阈值。

样例:

>>> from mindinsight.debugger import TensorAllZeroCondition
>>> my_condition = TensorAllZeroCondition(zero_percentage_ge=0.0)
>>> print(my_condition.name)
TensorAllZero
property param_names

返回参数名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.TensorUnchangedCondition(rtol=1e-05, atol=1e-08)[源代码]

检查张量值不变的监测条件。

检查先前和当前张量的allclose函数。只有当张量中的每个元素都满足公式 \(|element\_in\_current\_tensor - element\_in\_previous\_tensor| \leq atol + rtol\times |previous\_tensor|\) 时,监测点才会被命中。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • rtol (float,可选) - 相对容差参数。默认值:1e-5。

  • atol (float,可选) - 绝对容差参数。默认值:1e-8。

样例:

>>> from mindinsight.debugger import TensorUnchangedCondition
>>> my_condition = TensorUnchangedCondition(rtol=1000.0)
>>> print(my_condition.name)
TensorUnchanged
property param_names

返回参数名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.TensorChangeBelowThresholdCondition(abs_mean_update_ratio_lt, epsilon=1e-09)[源代码]

检查张量值变化率低于给定阈值的监测条件。

当张量变化满足公式 \(\frac {abs\_mean(current\_tensor - previous\_tensor)} {abs\_mean(previous\_tensor)} + epsilon < mean\_update\_ratio\_lt\) 时,监测点被命中。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • abs_mean_update_ratio_lt (float) - 平均变化比例的阈值。如果平均更新率小于该值,则将触发监测点。

  • epsilon (float,可选) - Epsilon 值。默认值:1e-9。

样例:

>>> from mindinsight.debugger import TensorChangeBelowThresholdCondition
>>> my_condition = TensorChangeBelowThresholdCondition(abs_mean_update_ratio_lt=2.0)
>>> print(my_condition.name)
TensorChangeBelowThreshold
property param_names

返回参数名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.TensorChangeAboveThresholdCondition(abs_mean_update_ratio_gt, epsilon=1e-09)[源代码]

检查张量值变化率超过给定阈值的监测条件。

当张量变化满足公式 \(\frac {abs\_mean(current\_tensor - previous\_tensor)} {abs\_mean(previous\_tensor)} + epsilon > mean\_update\_ratio\_lt\) 时,监测点被命中。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

参数:
  • abs_mean_update_ratio_gt (float) - 平均变化率的阈值,如果平均变化率大于此值,则将触发监测点。

  • epsilon (float,可选) - Epsilon 值。默认值:1e-9。

样例:

>>> from mindinsight.debugger import TensorChangeAboveThresholdCondition
>>> my_condition = TensorChangeAboveThresholdCondition(abs_mean_update_ratio_gt=0.0)
>>> print(my_condition.name)
TensorChangeAboveThreshold
property param_names

返回参数名称列表。

返回:

list[str],参数名称列表。

class mindinsight.debugger.ConditionBase[源代码]

检查条件的基类。

警告

此类中的所有API均为实验版本,将来可能更改或者删除。

说明

如果为一个条件实例指定了多个检查参数,只要有一个参数满足检查条件,就会在检查后命中该监测点。

支持平台:

Ascend GPU

样例:

>>> from mindinsight.debugger import DumpAnalyzer
>>> from mindinsight.debugger import (TensorTooLargeCondition,
...                                   Watchpoint)
>>>
>>> def test_condition_base():
...     my_run = DumpAnalyzer(dump_dir="/path/to/your/dump_dir_with_dump_data")
...     tensors = my_run.select_tensors(query_string="Conv2D-op13")
...     watchpoint = Watchpoint(tensors=tensors,
...                             condition=TensorTooLargeCondition(abs_mean_gt=0.0, max_gt=0.0))
...     hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0]
...     # print(hit.get_hit_detail())
...     # the print result is as follows
...     # The setting for watchpoint is abs_mean_gt = 0.0, max_gt = 0.0.
...     # The actual value of the tensor is abs_mean_gt = 0.06592023578438996, max_gt = 0.449951171875.
...     watchpoint = Watchpoint(tensors=tensors,
...                             condition=TensorTooLargeCondition(abs_mean_gt=0.0, max_gt=1.0))
...     # the check_watchpoints function start a new process needs to be called through the main entry
...     hit = list(my_run.check_watchpoints(watchpoints=[watchpoint]))[0]
...     # print(hit.get_hit_detail())
...     # the print result is as follows
...     # The setting for watchpoint is abs_mean_gt = 0.0.
...     # The actual value of the tensor is abs_mean_gt = 0.06592023578438996.
...
>>> if __name__ == "__main__":
...     test_condition_base()
...
property condition_id

获取检查条件id的名称。

返回:

int, 检查条件的id。

property name

获取检查条件的名称。

返回:

str, 检查条件的名称。

property param_dict

获取检查条件的参数。

返回:

dict, 检查条件的参数。