Allgemein
In einer Dokuementarchivsoftware (Bsp. d3 von d.velop) konnte nicht mehr in den Sekundärspeicher archiviert werden. In der Applikations gab es Fehlermeldungen. Die Prüfung des Sekundärspeichers zeigte, dass dort Disk- und Tape-Pools zu 100% ausgelastet sind. Die akute Lösung was es von mehreren noch zur Verfügung stehenden Bändern des Sekundärspeichers weitere für die Nutzung zu definieren. TSM hat dazu die Einstellunge „Max Scratch Volumes“. Diese definiert die maximale Nutztung von Scratch-Volumes (z.B. neue Bänder). Durch Heraufsetzen des Parameters konne ich weitere Bänder „aktiv“ schalten. Konkrete Meldungen und Schritte sind folgend beispielhaft abgebildet:
Fehler in Archiv Software
Fehlermeldung der Archiv…
14.07 11:58:53,268 D3SM_GP 00004B94 17788: Job started: E:\d3\D3GP.dok\jukebox\public\WORK!d3attrib-20160212-200
14.07 11:58:53,268 D3SM_GP 00004B94 17788: 836.xml.tempjob
14.07 11:58:53,330 D3SM_GP 00004B94 19216: TSM-ABORT – REASON: 29 – Document: d3attrib-20160212-120115.XML
14.07 11:58:53,330 D3SM_GP 00004B94 19216: SERVER: d3attrib-20160212-120115.xml: Error while uninitializing the tr
14.07 11:58:53,330 D3SM_GP 00004B94 19216: ansfer process (ANS0266I (RC2302) The dsmEndTxn vote is ABORT, so chec
14.07 11:58:53,330 D3SM_GP 00004B94 19216: k the reason field.)
14.07 11:58:53,346 D3SM_GP 00004B94 19216: WAITPROCESSOR: Added E:\d3\D3GP.dok\jukebox\public\WORK!d3attrib-2016
14.07 11:58:53,346 D3SM_GP 00004B94 19216: 0212-120115.xml.wait to recall list
14.07 11:58:53,346 D3SM_GP 00004B94 19216: Job ended: E:\d3\D3GP.dok\jukebox\public\WORK!d3attrib-20160212-12011
14.07 11:58:53,346 D3SM_GP 00004B94 19216: 5.xml.tempjob
Fehler in TSM
Fehlermeldung, dass keine Speicher mehr in den Pools zur Verfügung steht…
Date/Time Message
——————– ———————————————————-
07/21/16 14:48:47 ANR0403I Session 4589060 ended for node SERVER
(d3smanagertsm). (SESSION: 4589060)
07/21/16 14:48:47 ANR0522W Transaction failed for session 4589065 for node
SERVER (d3smanagertsm) – no space available in storage
pool SYSTEM-DISK and all successor pools. (SESSION: 4589065)
07/21/16 14:48:47 ANR0406I Session 4589067 started for node SERVER
(d3smanagertsm) (Tcp/Ip SERVER.domain.intern(59264)).
(SESSION: 4589067)
Überblick STG SYSTEM-DISK verschaffen und Next Storage Pool herausfinden
tsm: TSM>q stg system-disk f=d
Storage Pool Name: SYSTEM-DISK
Storage Pool Type: Primary
Device Class Name: DISK
Estimated Capacity: 2,048 G
Space Trigger Util: 100.0
Pct Util: 100.0
Pct Migr: 100.0
Pct Logical: 100.0
High Mig Pct: 90
Low Mig Pct: 20
Migration Delay: 0
Migration Continue: Yes
Migration Processes: 1
Reclamation Processes:
Next Storage Pool: SYSTEM-TAPE
Reclaim Storage Pool:
Maximum Size Threshold: No Limit
Access: Read/Write
Description: Discpool for SYSTEM
Overflow Location:
Cache Migrated Files?: No
Collocate?:
Reclamation Threshold:
Offsite Reclamation Limit:
Maximum Scratch Volumes Allowed:
Number of Scratch Volumes Used:
Delay Period for Volume Reuse:
Migration in Progress?: No
Amount Migrated (MB): 0.00
Elapsed Migration Time (seconds): 0
Reclamation in Progress?:
Last Update by (administrator): ADMIN
Last Update Date/Time: 03/09/12 12:18:21
Storage Pool Data Format: Native
Copy Storage Pool(s):
Active Data Pool(s):
Continue Copy on Error?: Yes
CRC Data: No
Reclamation Type:
Overwrite Data when Deleted:
Details zum Next Storage Pool und dort die Maximum Scratch Volumes herausfinden